• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 25
  • 20
  • 1
  • Tagged with
  • 46
  • 46
  • 17
  • 15
  • 14
  • 10
  • 9
  • 9
  • 8
  • 7
  • 6
  • 6
  • 6
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Next generation of optimization and interactive planning algorithms for brachytherapy treatments

Bélanger, Cédric 19 January 2024 (has links)
Titre de l'écran-titre (visionné le 12 janvier 2024) / La curiethérapie est une modalité de traitement du cancer utilisant le rayonnement ionisant d'une source radioactive. En curiethérapie à haut débit de dose (HDR), un appareil motorisé blindé est utilisé pour guider la source radioactive à proximité ou à l'intérieur de la tumeur par l'intermédiaire d'applicateurs intracavitaires (IC) et/ou de cathéters interstitiels (IS). En s'arrêtant un certain temps (temps d'arrêt) à des positions spécifiques (positions d'arrêt), une dose de rayonnement conforme peut être adminisitrée à la tumeur tout en épargnant les organes à risque (OARs) avoisinants. Cependant, en raison de la nature du rayonnement ionisant, il est impossible d'administrer une dose de radiation curative à la tumeur sans exposer les OARs. Ces objectifs contradictoires doivent donc être optimisés simultanément. Par conséquent, le problème de planification de traitement en curiethérapie est intrinsèquement un problème d'optimisation multicritère (MCO), où de nombreuses solutions optimales (solutions Pareto-optimales) caractérisent les compromis cliniquement importants. Actuellement, les algorithmes commerciaux de planification en curiethérapie sont limités à l'ajustement manuel d'un objectif et/ou des temps d'arrêt. À cet égard, les algorithmes de planification inverse ne peuvent générer qu'un seul plan de traitement par cycle d'optimisation (en quelques secondes de temps de calcul) sans garantie de rencontrer les critères cliniques lors du premier cycle. Cette approche peut rendre la tâche de planification itérative et fastidieuse pour les planificateurs/planificatrices. Par conséquent, la qualité du plan peut dépendre des compétences de l'utilisateur/utilisatrice. En outre, la génération itérative d'un plan de traitement par cycle d'optimisation, comme c'est le cas en clinique, ne permet pas au planificateur/ planificatrice d'explorer facilement les compromis entre le tumeur cible et les OARs. La littérature présente également une lacune importante en ce qui concerne les méthodes d'optimisation permettant d'intégrer efficacement les applicateurs IC/IS complexes récents (par exemple, l'applicateur Venezia fabriqué par Elekta, Veenendaal, Pays-Bas) pour la curiethérapie du cancer du col de l'utérus. Le principal défi pour ces applicateurs complexes est de déterminer automatiquement le nombre optimal de cathéters, leur position et leur profondeur compte tenu du grand nombre de degrés de liberté dans le problème d'optimisation et des grandes variations dans la forme des tumeurs. Pour résoudre ces problèmes, cette thèse propose une nouvelle génération d'algorithmes d'optimisation et de planification interactive pour la curiethérapie. Pour atteindre cet objectif, un algorithme MCO (gMCO) basé sur une unité de processeur graphique (GPU) est d'abord mis en œuvre et comparé à un algorithme de planification inverse standard utilisé en clinique. gMCO met en œuvre un nouveau schéma d'optimisation des plans en parallèle sur l'architecture GPU permettant d'optimiser des milliers de plans Pareto-optimaux en quelques secondes. Ensuite, pour tirer pleinement profit de MCO en clinique, une interface graphique interactive appelée gMCO-GUI est développée. Cette interface permet au planificateur/planificatrice de naviguer et d'explorer les compromis en temps réel à partir des plans Pareto-optimaux générés par gMCO. gMCO-GUI permet entre autre d'afficher les indices dose-volume histogram (DVH), les courbes DVH et les lignes d'isodose pendant la navigation. Pour intégrer le flux de travail MCO dans la clinique, la mise en service de gMCO et de gMCO-GUI est effectuée en comparaison avec Oncentra Prostate et Oncentra Brachy, deux systèmes de planification de traitement largement utilisés. Suite à la mise en service, afin de caractériser l'utilisation de la planification interactive MCO en clinique, une étude inter-observateurs est menée. Deux physiciens/physiciennes expérimentés sont invités à replanifier 20 cas de cancer de la prostate chacun à l'aide de la planification interactive MCO. La qualité des plans préférés (obtenus par navigation) est comparée entre les deux physiciens/ phyciennes et le temps de planification MCO est enregistré. De plus, trois radio-oncologues sont invités à comparer l'aveugle les plans MCO (générés par les physiciens/physiciennes) et les plans cliniques afin d'établir le meilleur plan pour chaque patient. Finalement, motivé par le manque d'algorithmes d'optimisation des cathéters et de la dose dans le traitement du cancer du col de l'utérus dans les logiciels commerciaux et dans la littérature, un nouvel algorithme d'optimisation multicritère des cathéters pour les applicateurs IC/IS complexes tels que l'applicateur Venezia est conçu. Le problème d'optimisation avec l'applicateur Venezia est difficile car les composants de l'applicateur ne sont pas coplanaires. Le gain dosimétrique de l'optimisation simultanée des cathéters et MCO est comparé à MCO seul (cathéters cliniques) et aux plans cliniques basé sur les critères EMBRACE-II. En résumé, une nouvelle génération d'algorithmes d'optimisation et de planification interactive est développée pour la curiethérapie. Les cinq chapitres principaux de cette thèse rapportent les résultats et les contributions scientifiques de ces algorithmes comparés à la planification clinique standard. La thèse guide également les utilisateurs/utilisatrices dans l'intégration du flux de travail MCO interactif dans la clinique. / Brachytherapy is a treatment modality for cancer using ionizing radiation of a radioactive source. In high-dose-rate (HDR) brachytherapy, an afterloading unit is used to guide the radioactive source near or inside the tumor via intracavity (IC) applicators and/or interstitial (IS) catheters. By stopping a specific amount of time (dwell time) at specific positions (dwell positions), a conformal radiation dose can be delivered to the tumor while spearing nearby organs at risk (OARs). However, because of the nature of ionizing radiation, it is in fact impossible to deliver the curative dose to the tumor without exposing OARs. Instead, those conflicting objectives need to be simultaneously optimized. Therefore, the planning problem in HBR is inherently a multi-criteria optimization (MCO) problem, where many optimal solutions (Pareto-optimal solutions) can effectively characterize the clinically relevant trade-offs. Current commercial planning algorithms in HDR brachytherapy are limited to the manual fine-tuning of an objective and/or dwell times. In that regard, inverse planning algorithms can generate only one treatment plan per optimization run (few seconds of optimization time) without guarantee of meeting clinical goals in the first run, which makes the planning task iterative and cumbersome for the planners. Therefore, the plan quality may be dependent on the user skills. Furthermore, iterative generation of one treatment plan per optimization run as done in the clinic does not easily allow the planner to explore the trade-offs between targets and OARs. There is also an important gap in optimization methods in the literature to efficiently incorporate recent complex IC/IS applicators (e.g., the Venezia applicator manufactured by Elekta, Veenendaal, The Netherlands) for cervical cancer brachytherapy. The main challenge for these complex applicators is to automatically determine the optimal IS catheter number, position, and depth given large number of degrees of freedom in the optimization problem and large variations in tumor shapes. To address these problems, this thesis proposes next generation of optimization and interactive planning algorithms for brachytherapy. A graphics processing unit (GPU)-based MCO algorithm (gMCO) is first implemented and compared with a standard inverse planning algorithm used in the clinic. gMCO implements a novel parallel plan optimization scheme on GPU architecture that can optimize thousands of Pareto-optimal plans within seconds. Next, to fully benefit of MCO in the clinic, an interactive graphical user interface called gMCO-GUI is developed to allow the planner to navigate and explore the trade-offs in real-time through gMCO-generated plans. gMCO-GUI enables the display of dose-volume histogram (DVH) indices, DVH curves, and isodose lines during the plan navigation. To incorporate the proposed MCO workflow the clinic, the commissioning of gMCO and gMCO-GUI is conducted against Oncentra Prostate and Oncentra Brachy, two widely used treatment planning systems. Following the commissioning, and to further characterize the utilization of MCO interactive planning in the clinic, an inter-observer study is conducted. Two experienced physicists are asked to re-plan 20 prostate cases each using MCO interactive planning. The quality of the preferred plans (obtained by plan navigation) is compared between the two physicists and the MCO planning time is recorded. In addition, three radiation oncologists are invited to blindly compare MCO plans (generated by physicists) and clinical plans to assess the best plan for each patient. Finally, motivated by the lack of catheter and dose optimization algorithms in the treatment of cervical cancer in commercial software and in the literature, a novel simultaneous catheter optimization and MCO algorithm for complex IC/IS applicators such as the Venezia applicator is designed. The optimization problem with the Venezia applicator is challenging because the applicator components are non coplanar. The dosimetric gain of simultaneous catheter optimization and MCO is compared with MCO alone (clinical catheters), and clinical plans following EMBRACE-II criteria. In summary, next generation of optimization and interactive planning algorithms are developed for brachytherapy. The five main chapters of this thesis report the findings and scientific contributions of these algorithms compared with standard clinical planning. The thesis also guide users in the integration of the proposed interactive MCO workflow in the clinic.
2

Nonlinear optimization-based control techniques applied to cement grinding and polymerization processes

Lepore, Renato 02 June 2006 (has links)
Durant ces dernières années, l’intérêt pour les techniques de commande basées sur l’optimisation augmente en raison, d’une part de la compétitivité et des réglementations accrues dans le milieu industriel, et d’autre part de la puissance de calcul disponible aujourd’hui pour leur mise en œuvre efficace. Ce travail évalue les potentialités de ces techniques sur deux applications différentes en simulation, les simulateurs ayant été préalablement identifiés sur des installations réelles. La première application consiste en un circuit fermé de broyage du ciment fini. Un nouveau modèle à paramètres distribués est établi, qui décrit les masses mais aussi les distributions granulométriques à l’aide d’un nombre réduit d’intervalles de taille. Ce modèle est utilisé ensuite dans un but de commande et d’estimation de l’état. Sur le plan de la commande, de nouveaux objectifs sont définis en relation avec la résistance du ciment produit et l’efficacité du broyage. Les variables à contrôler sont deux fractions massiques mesurées par tamisage en ligne. Une stratégie de commande prédictive (horizon glissant), multivariable et non-linéaire, est mise au point, qui assure, en agissant sur le débit des matières premières et la recirculation, des changements de production efficaces et sécurisés, c’est-à-dire en tenant compte des limites des actionneurs et du bon fonctionnement du procédé. Le schéma de commande est complété par un module « output feedback », qui permet de compenser avantageusement les incertitudes structurelles du modèle, surtout si le système (procédé ou modèle) est pré-stabilisé et partiellement linéarisé à l’aide d’une simple boucle de régulation du débit du broyeur. Sur le plan de l’estimation d’état, un algorithme à horizon glissant, dual de l’algorithme de commande prédictive, est conçu et évalué, qui permet d’estimer la charge en matériau et les granulométries à l’intérieur du broyeur à partir de mesures à la sortie du broyeur uniquement. Cet algorithme peut être étendu de manière à déterminer l’état ainsi qu’un paramètre sujet à variations lentes, comme la broyabilité du matériau. L’estimateur d’état est également intégré à la commande prédictive. L’ensemble donne de bons résultats sous l’angle de la robustesse aux erreurs de mesure et aux incertitudes paramétriques, pourvu qu’il soit aussi muni d’un module de compensation « output feedback » (comme celui mentionné ci-avant). La seconde application est un procédé batch de polymérisation du méthacrylate de méthyle (MMA). Une représentation d’état est adoptée, qui se base sur des bilans de masse (la méthode des moments est utilisée) et d’énergie. Ces équations prennent aussi en compte l’effet de gel. Grâce à ce dernier aspect du modèle, un double objectif final de qualité et de taux de conversion peut être atteint. Dans l’hypothèse où deux incertitudes existent sur le modèle (l’échange de chaleur entre la paroi du réacteur et la solution est affecté par des dépôts d’impuretés, l’effet de gel n’est pas correctement identifié), trois stratégies de commande basées sur l’optimisation sont évaluées dans le cas pratique où seule la température de la solution est mesurée. La première stratégie combine une optimisation réalisée hors ligne avec le modèle nominal qui délivre la température de solution optimale comme consigne à un contrôleur classique. Cette stratégie s’avère néanmoins insuffisante par rapport à une perturbation sur l’effet de gel. La deuxième stratégie est basée sur une approche robuste par rapport à l’effet de gel, plus précisément une approche robuste de type « pire cas » qui permet de compenser la plus grave dégradation des performances due à la perturbation sur l’effet de gel. La variante moins conservatrice de cette stratégie comportant une boucle interne de contrôle ne peut malheureusement convenir pour les deux perturbations simultanément. La troisième stratégie est basée sur le principe d’estimation/ré-optimisation, cependant avec une estimation découplée (l’effet de gel se manifeste tard dans le déroulement du procédé) et donc très efficace des paramètres. De plus, l’estimation/ré-optimisation par rapport à l’effet de gel n’est réalisée que si cela s’avère nécessaire (écart significatif par rapport à la trajectoire optimale). Cette étude met en évidence les potentialités (diversité des utilisations), la flexibilité (couplage avec des stratégies plus classiques) des techniques basées sur l’optimisation. Il apporte aussi des solutions à des problèmes rencontrés dans l’industrie, inhérents à l’incertitude sur le modèle et au nombre limité de mesures.
3

Commande optimale d'un processus de mélange

Desilets, Gilles January 1968 (has links)
La méthode d'approximation des lieux de commutation pour la commande optimale d'un processus par approximations linéaires successives de leurs projections sur les plans orthogonaux de 1'espace d'état des variables considérées est difficilement applicable dans le cas d'un processus dont l'un des paramètres varie d'une façon quelconque. Le mélangeur présente cette particularité si l'on considère qu'il peut être représenté par une constante de temps dépendante de la valeur du débit à la sortie. Les équations décrivant le fonctionnement d'un chauffe-eau avec brassage étant analogues à celles décrivant celui du mélangeur et sa réalisation étant plus simple que celle de ce dernier, le processus du chauffe-eau avec brassage est étudié ici. Les progrès de 1' électronique en ce qui a trait à la production d'éléments non-linéaires tels que les multiplicateurs permettent d'envisager la possibilité de réaliser l'approximation des lieux de commutation optimale par des polynômes dont les coefficients peuvent être adaptés continuellement à la valeur du paramètre variable si ce dernier est mesurable et de conserver ainsi des performances optimales. Pour le mélangeur, en introduisant une constante de temps de mélange et un critère de temps minimal pour ramener 1'intégrale de 1'erreur de la concentration du mélange produit à zéro, on obtient un système du -troisième ordre. Le principe du maximum donne alors une commande optimale du type "bangbang" et une possibilité de deux commutations optimales pour ramener le système à l'origine. Les approximations des surfaces et des courbes de commutation optimale sous forme de polynômes de même que 1'adaptation des vii coefficients de ces derniers en fonction du débit sont obtenus par la méthode des moindres carrés à l'aide d'm ordinateur et les résultats de la simulation sur calculatrice analogique de la commande optimale sont présentés.
4

Analyse de stratégies de triage en forêt pour une chaîne de valeur forestière efficiente

Baccouche, Mohamed Dhia Eddine 08 September 2023 (has links)
Titre de l'écran-titre (visionné le 5 septembre 2023) / L'industrie forestière canadienne joue un rôle majeur dans l'économie du pays et les forêts canadiennes représentent une source importante de bois à l'échelle mondiale. Dans ce contexte, le triage et le transport du bois revêtent une grande importance pour assurer le bon fonctionnement de la chaîne de valeur forestière. Ce projet de recherche vise à explorer différentes stratégies de triage dans les secteurs forestiers, dans le but de mieux coordonner l'approvisionnement en bois avec les besoins spécifiques des usines de transformation. Pour atteindre cet objectif, nous avons développé un modèle d'optimisation basé sur la programmation mathématique, en plus d'un outil de traitement de données permettant de traiter les données reçues de notre partenaire industriel et de former des fichiers de données pour alimenter notre modèle d'optimisation. Ce modèle permet d'évaluer la rentabilité des différentes stratégies de triage pour fournir par la suite la meilleurs distribution des méthodes de triage dans les zones de récolte forestière. Des expérimentations ont été menées en prenant en compte différents paramètres comme le nombre et le type de piles de bois formées en forêt. Notre étude a permis de mettre sur pied un modèle d'aide à la prise de décision qui facilite le choix des méthodes de triage à utiliser en forêt. Ce modèle prend en compte plusieurs facteurs, dont les types de piles pouvant être formées en forêt, la demande des usines, les distances de transport forêt-usines et les distances inter-usines. Cette recherche constitue donc une contribution intéressante dans le domaine de l'optimisation du triage et du transport du bois, en fournissant une méthodologie solide, un outil de traitement de données et un modèle d'optimisation précis. / The Canadian forest industry plays a significant role in the country's economy, while Canadian forests represent a major source of timber. In this context, wood sorting and transportation are of great importance to ensure the smooth functioning of the forest value chain. This research project aims to explore different sorting strategies in forest sectors in order to better coordinate wood supply with the specific needs of processing mills. To achieve this goal, we developed an optimization model based on mathematical programming, along with a data processing tool to exploit the data received from our industrial partner. This model allows for evaluating the profitability of different sorting strategies to subsequently provide the best distribution of sorting methods in forest harvesting areas. Experiments were conducted, taking into account various parameters such as the number and type of wood piles formed in the forest. Our study has resulted in the development of a decision-making tool that facilitates the selection of sorting methods to be used in the forest. This model takes into consideration several factors, including the types of piles that can be formed in the forest, the demand from mills, the distances for forest-to-mill and inter-mill wood transportation. This research contributes to the field of wood sorting and transportation optimization by providing a robust methodology, a data processing tool, and an accurate optimization model.
5

Estimation haute-résolution de la position de cibles en mouvement à partir du suivi du sous-espace sources et d'un estimateur statistique de 2e ordre

Isabel, Marc-André 27 November 2020 (has links)
En 1995, la technologie LIDAR fait émergence en télédétection et entraîne avec elle une nouvelle forme de concurrence dans un domaine jusqu'alors dominé par les systèmes RADAR. Contrairement à ces derniers, l'émetteur d'un LIDAR opère à des fréquences au-delà des ondes radios, habituellement dans l'infrarouge, ce qui fait qu'une détection non cohérente doit être employée et que seule l'enveloppe des signaux est récupérée, formant ainsi des signaux réels. Alors que de multiples algorithmes ont été développés au l des années pour faire le traitement des signaux captés par l'antenne-réseau d'un RADAR, aucun n'était reconnu jusqu'à présent comme étant particulièrement performant lorsque utilisé avec des signaux réels. En 2015, dans le cadre d'un projet de recherche visant à améliorer la distance et la précision de la détection des objets à l'aide d'un LIDAR, une adaptation [1] du très populaire algorithme MUSIC développé par Schmidt fut réalisée a n de pouvoir l'utiliser selon le principe du temps de vol plutôt que pour les directions d'arrivée. Cette adaptation ouvrit la voie à l'utilisation d'algorithmes statistiques, à l'origine conçus pour les signaux avec information de phase, pour des signaux réels. Malheureusement, l'application directe de ces algorithmes requiert un temps d'exécution considérable et ce, en particulier lors de la formation, du traitement et de la décomposition propre de la matrice ReXX. Par conséquent, des optimisations doivent être considérées pour être en mesure d'en faire l'implantation dans du matériel à faible coût lorsqu'il est question d'opération en temps réel. Parmi ces optimisations, c'est l'utilisation de méthodes de suivi fondées sur la notion de sous-espace qui fait l'objet de cet ouvrage. Ces algorithmes reposent sur l'idée qu'il est possible d'oublier, de façon graduelle, les données du passé au pro t des nouvelles données sans avoir à passer par la formation de la matrice ReXX à chaque fois. Ainsi, les résultats démontrent qu'une réduction de 25% à 95% du temps d'exécution est possible dans un contexte d'utilisation conjointe, mais moins fréquente, avec une méthode à complexité algorithmique plus élevée. Par ailleurs, les résultats des essais réalisés par [1] ne couvrent que les cibles stationnaires. Par conséquent, ce projet vise à étendre cette étude aux cibles en mouvement. Les résultats obtenus permettent de démontrer l'efficacité des méthodes de suivi du sous-espace pour de tels cas. / In 1995, LIDAR systems emerged as a new alternative to the well-known RADAR systems for remote sensing applications. However, unlike RADAR, the operating frequency of LIDAR systems is above the radio frequencies and usually in the infrared which means that a non-coherent detection has to be used to retrieve the signal's enveloppe. While several signal processing algorithms have been developped for RADAR phased arrays, none of these algorithms are known, to this day, to be e cient when dealing with real, phaseless signals. In 2015, as part of a research project to enhance the detection precision and maximal distance of a LIDAR system, an adaptation [1] of the so-called MUSIC algorithm developped by Schmidt was realised to be used with the time-of- ight principle instead of the direction of arrival principle. Unfortunately, the direct application of the adapted algorithm was time consuming, especially the creation, processing and eigendecomposition stages of the ReXX matrix. As so, optimizations are required to allow its implementation into a low-cost system for real-time purposes. Among those optimizations, the use of subspace tracking methods will be studied in this thesis. Subspace tracking algorithms are based on the idea that instead of having to create ReXX at each data update, one can use the known data while adding the new data with a forgetting factor. The result of these optimizations is that a decrease of 25% to 95% in execution time is observed when subspace tracking is used together with a higher complexity method to initialize its parameters. The study realised by [1] was mostly done for stationary objects. This thesis aims to extend that study to non stationary objects. Results show that using subspace tracking methods is even more efficient in these cases.
6

Condition-based maintenance optimization of degrading systems

Wei, Shuaichong 04 October 2023 (has links)
Thèse ou mémoire avec insertion d'articles / L'objectif principal de cette thèse vise à analyser et optimiser les stratégies de la maintenance conditionnelle à adopter, pour les systèmes de production pouvant opérer en mode dégradé. Premièrement, nous commençons par analyser un système de production simple, composé d'une seule machine/composante pour l'étendre ensuite à des systèmes de production plus complexes. La machine est modélisée comme un système à plusieurs états allant du fonctionnement nominal jusqu'à la panne totale et chaque état de fonctionnement dégradé est caractérisé par ses propres taux de production et de produits non conformes, ainsi que par son propre niveau d'effets secondaires comme la quantité émise de dioxyde de carbone et le niveau de consommation de l'énergie. Lorsque l'état de la machine/composante atteint la limite du seuil acceptable, des actions préventives de maintenance sont déployées pour ramener la machine à un niveau de performance supérieur. Dans ce contexte, trois types de configurations sont considérés dans cette thèse: système série sans stocks intermédiaires, système à deux machines/composantes avec un stock intermédiaire et système série/parallèle sans stocks intermédiaires. Dans le premier type de configuration (i.e. système série), l'objectif de l'optimisation est de maximiser le taux de production du système. Les résultats numériques ont montré que, pour que le taux de production soit optimal, la maintenance préventive ne doit pas être optimisé pour chaque machine/composante individuellement, mais plutôt pour l'ensemble du système considéré, et que les actions de maintenance majeures devraient être appliquées aux machines goulot. Dans le deuxième type de configuration (i.e. système à deux machines et un stock intermédiaire), l'objectif de l'optimisation est de minimiser la somme des couts associés à la maintenance, au niveau de l'inventaire, aux produits non conformes et aux effets secondaires causés par la dégradation de la performance des machines, tout en maintenant le taux de production à un niveau élevé. Une méthode d'évaluation analytique est ainsi développée pour évaluer le taux de production. L'effet de la maintenance préventive et du niveau du stock a été analysé et les résultats montrent clairement qu'un cout minimal peut être obtenu lorsque la maintenance préventive est optimisée pour l'ensemble du système considéré. Dans le cas du troisième type de configuration (i.e. système série-parallèle multi-états), un nouveau modèle d'optimisation de la redondance intégrant la maintenance conditionnelle est proposé. L'objectif est de déterminer conjointement la structure du système et les actions de maintenance conditionnelle à un coût minimal, sous des contraintes de disponibilité. Pour estimer la disponibilité du système, un nouveau modèle combinant les chaînes de Markov et la technique de la fonction génératrice des moments universelle est développé. De plus, un algorithme génétique est proposé pour résoudre le problème d'optimisation combinatoire formulé. Les résultats obtenus ont montré que l'intégration des coûts d'exploitation dans le modèle d'optimisation donne de meilleurs résultats par rapport au modèle ne considérant que les coûts de conception et de maintenance. / The main objective of this thesis is to analyze and optimize the condition-based maintenance strategies to be adopted for production systems that can operate in degradation mode. First, we consider a production system composed of one machine/component and then extend it to more complex production systems. The machine is modeled as a multi-state system ranging from perfect functioning to total failure and each degraded operating state is characterized by its own production rate, fraction of nonconforming items produced and level of side effects such as the amount of carbon dioxide emitted and the level of energy consumption. When the last acceptable state of the component/machine is reached, preventive maintenance actions are deployed to bring the machine back to one of the previous higher levels of performance. In this context, three various types of common manufacturing systems are considered in this thesis: a serial system without intermediate buffers, two-machine/component manufacturing system with an intermediate buffer and a serial-parallel system without intermediate buffers. In the first type of configuration (i.e., a serial system), the objective of the optimization is to maximize the production rate of the system. The numerical results showed that the optimal preventive maintenance policies should be selected from the perspective of the whole system and major maintenance actions should be applied to the bottleneck machine of the system. In the second type of configuration (i.e., a system with two machines and an intermediate buffer), the objective of the optimization is to minimize the sum of the costs associated with maintenance, inventory level, nonconforming items and side effects caused by the degradation of machine's performance, while keeping the production rate at a high level. An analytical evaluation method is thus developed to evaluate the production rate. The effect of preventive maintenance and buffer level is analyzed, and the obtained results clearly show that a minimum cost can be reached when preventive maintenance is optimized for the whole system. In the case of the third type of configuration (i.e., a multi-state series-parallel system), a new model integrating condition-based maintenance and redundancy optimization is proposed. The objective is to jointly optimize, under availability constraints, the structure of the system and the conditional maintenance actions at a minimum cost. To estimate the availability of the system, a new model combining Markov chains and the universal moment generating function technique is developed. Moreover, a genetic algorithm is proposed to solve the formulated combinatorial optimization problem. The results obtained showed that the integration of operating costs in the optimization model gives better results, compared to the model considering only design and maintenance costs.
7

Meta learning for population-based algorithms in black-box optimization

Siqueira Gomes, Hugo 15 April 2021 (has links)
Les problèmes d’optimisation apparaissent dans presque tous les domaines scientifiques. Cependant, le processus laborieux de conception d’un optimiseur approprié peut demeurer infructueux. La question la plus ambitieuse de l’optimisation est peut-être de savoir comment concevoir des optimiseurs suffisamment flexibles pour s’adapter à un grand nombre de scénarios, tout en atteignant des performances de pointe. Dans ce travail, nous visons donner une réponse potentielle à cette question en étudiant comment faire un méta-apprentissage d’optimiseurs à base de population. Nous motivons et décrivons une modélisation commune pour la plupart des algorithmes basés sur la population, qui présentent des principes d’adaptation générale. Cette structure permet de dériver un cadre de méta-apprentissage basé sur un processus de décision de Markov partiellement observable (POMDP). Notre formulation conceptuelle fournit une méthodologie générale pour apprendre l’algorithme d’optimisation lui-même, présenté comme un problème de méta-apprentissage ou d’apprentissage pour optimiser à l’aide d’ensembles de données d’analyse comparative en boîte noire, pour former des optimiseurs polyvalents efficaces. Nous estimons une fonction d’apprentissage de méta-perte basée sur les performances d’algorithmes stochastiques. Notre analyse expérimentale indique que cette nouvelle fonction de méta-perte encourage l’algorithme appris à être efficace et robuste à une convergence prématurée. En outre, nous montrons que notre approche peut modifier le comportement de recherche d’un algorithme pour s’adapter facilement à un nouveau contexte et être efficace par rapport aux algorithmes de pointe, tels que CMA-ES. / Optimization problems appear in almost any scientific field. However, the laborious process to design a suitable optimizer may lead to an unsuccessful outcome. Perhaps the most ambitious question in optimization is how we can design optimizers that can be flexible enough to adapt to a vast number of scenarios while at the same time reaching state-of-the-art performance. In this work, we aim to give a potential answer to this question by investigating how to metalearn population-based optimizers. We motivate and describe a common structure for most population-based algorithms, which present principles for general adaptation. This structure can derive a meta-learning framework based on a Partially observable Markov decision process (POMDP). Our conceptual formulation provides a general methodology to learn the optimizer algorithm itself, framed as a meta-learning or learning-to-optimize problem using black-box benchmarking datasets to train efficient general-purpose optimizers. We estimate a meta-loss training function based on stochastic algorithms’ performance. Our experimental analysis indicates that this new meta-loss function encourages the learned algorithm to be sample efficient and robust to premature convergence. Besides, we show that our approach can alter an algorithm’s search behavior to fit easily in a new context and be sample efficient compared to state-of-the-art algorithms, such as CMA-ES.
8

Étude des méthodes numériques pour l'optimisation de forme en mécanique des solides

Luneau, Philippe-André 06 July 2023 (has links)
Titre de l'écran-titre (visionné le 26 juin 2023) / Ce travail porte sur le problème d'optimisation de forme dans le cadre de la mécanique des solides en petites déformations, et plus spécialement sur les différentes méthodes numériques utilisées pour résoudre le problème. Une présentation de la théorie de la mécanique des milieux continus, axée sur la mécanique des solides, sera présentée. L'équation de l'équilibre dynamique, qui sera utilisée comme équation d'état dans le reste du mémoire, y sera dérivée. Par la suite, un bref rappel de la théorie de l'optimisation dans les espaces de Hilbert sera fait, particulièrement sur les conditions d'optimalité pour des problèmes avec ou sans contrainte. On étudiera également les différents modèles qui existent pour représenter mathématiquement l'espace des formes admissibles, ainsi que les difficultés théoriques qui se cachent derrière le problème d'optimisation de forme. Puis, on s'intéressera aux méthodes numériques utiles à la résolution de ce problème : en premier, des paradigmes de discrétisation pour résoudre l'équation d'état en mécanique seront présentés, notamment la méthode des éléments finis (MEF). Deuxièmement, une revue des différentes techniques d'optimisation numérique sera faite, pour donner une vue d'ensemble des algorithmes qui peuvent être utilisés sur le problème d'optimisation de forme. Finalement, quelques unes de ces méthodes seront implémentées dans le logiciel d'éléments finis MEF++ et testées sur des cas classiques d'optimisation topologique dans le paradigme SIMP, principalement dans le but de faire une analyse de leur comportement sur des instances de dimension élevée, en parallèle, sur une grappe de calcul. / This work is dedicated to shape optimization problems applied to linear elasticity, focusing mostly on the numerical methods used to solve these problems. An overview of continuum mechanics is first presented. The linear dynamic equilibrium equation is derived, as it is the classical state equation for most shape optimization problems in solid mechanics. Subsequently, the theory of optimization in general Hilbert spaces is presented, with emphasis on the existence and uniqueness conditions for optimality, for both constrained and unconstrained problems. Different models for representing shapes mathematically and their known theoretical limitations are also described. Then, numerical methods for the solution of the mechanical state equation are explored, in particular, the finite element method (FEM). A review of different algorithms to solve the discretized optimization problem is done afterwards, to give an overview of the wide array of available methods. Finally, some of those algorithms are implemented in the finite element software MEF++ and are tested on classical topology optimization problems with the SIMP model, mainly to study their performance on high-dimensional instances solved on a parallel computer cluster.
9

Four-bar linkage synthesis using non-convex optimization

Goulet, Vincent 24 April 2018 (has links)
Ce mémoire présente une méthode pour synthétiser automatiquement des mécanismes articulés à quatre barres. Un logiciel implémentant cette méthode a été développé dans le cadre d’une initiative d’Autodesk Research portant sur la conception générative. Le logiciel prend une trajectoire en entrée et calcule les paramètres d’un mécanisme articulé à quatre barres capable de reproduire la même trajectoire. Ce problème de génération de trajectoire est résolu par optimisation non-convexe. Le problème est modélisé avec des contraintes quadratiques et des variables réelles. Une contrainte redondante spéciale améliore grandement la performance de la méthode. L’expérimentation présentée montre que le logiciel est plus rapide et précis que les approches existantes. / This thesis presents a method to automatically synthesize four-bar linkages. A software implementing the method was developed in the scope of a generative design initiative at Autodesk. The software takes a path as input and computes the parameters of a four-bar linkage able to replicate the same path. This path generation problem is solved using non-convex optimization. The problem is modeled with quadratic constraints and real variables. A special redundant constraint greatly improves the performance of the method. Experiments show that the software is faster and more precise than existing approaches.
10

Control and optimization of the primary drying of lyophilization in vials

Chia, Andrea 07 July 2023 (has links)
Titre de l'écran-titre (visionné le 28 juin 2023) / La lyophilisation est devenue un sujet essentiel de développement dans l'industrie pharmaceutique. Il s'agit d'une technique de séchage reposant sur le principe de la sublimation qui est utilisée pour stabiliser et conserver des matériaux qui ne peuvent pas être séchés par des techniques conventionnelles. La lyophilisation comporte trois étapes : la congélation, le séchage primaire et le séchage secondaire. L'efficacité globale du procédé dépend principalement de la performance du séchage primaire, qui représente l'étape la plus longue et la plus énergivore et détermine en grande partie la qualité du produit final. La pratique courante consiste à opérer le procédé sous des profils pré-calculés avec des marges de sécurité, ce qui conduit à des cycles conservateurs et sous-performants. La commande automatique est donc une voie prometteuse pour réduire la durée de séchage, mais elle se limite généralement à des applications en flacon unique négligeant l'hétérogénéité spatiale affectant la dynamique de séchage intra-lot. D'autres défis sont liés à l'inaccessibilité des variables clés du processus ou à l'utilisation d'instruments intrusifs pour leur mesure. Ce projet de recherche étudie la commande et l'optimisation du séchage primaire de la lyophilisation en flacons, en abordant trois aspects principaux : la modélisation, l'estimation et la commande. La conception des stratégies d'estimation et de contrôle exige d'abord une représentation fiable du procédé. Le modèle proposé intègre les équations fondamentales du séchage primaire dans un modèle linéaire à paramètres variables, fournissant un compromis approprié entre la précision du modèle et le coût de calcul. Cette étude explore également la conception d'estimateurs en ligne de variables clés du procédé à l'aide d'instruments non invasifs, applicables à des équipements pilotes et industriels. La mesure globale est convertie pour tenir compte des contributions des flacons individuels, et cette mesure locale est utilisée dans la conception des estimateurs en ligne de la température du produit. Trois estimateurs sont formulés à l'aide des algorithmes suivants : filtre de Kalman étendu, l'estimation à fenêtre glissante et l'estimation non linéaire par moindres carrés. Des résultats satisfaisants ouvrent la voie à la possibilité de concevoir des estimateurs multi-flacons avec la mesure globale de la vapeur d'eau et englobant l'hétérogénéité spatiale du séchage. Le principe de commande initial a été développé et évalué en simulation pour un cas à flacon unique. Il a considéré deux algorithmes : une commande proportionnelle-intégrale et la commande prédictive. Le schéma de contrôle a été étendu à un problème à multiples flacons et validé dans une unité à l'échelle pilote. Les résultats ont été concluants, la commande automatique a conduit à des réductions significatives du temps de séchage par rapport aux conditions de fonctionnement typiques, et l'approche multi-flacons a permis d'obtenir un cycle très fiable. / Lyophilization, or freeze-drying, has become an essential subject of ongoing development in the pharmaceutical industry. It is a drying technique relying on the sublimation principle and is used to stabilize and preserve materials that cannot be dried by conventional techniques. Lyophilization involves three stages: freezing, primary drying, and secondary drying. The global efficiency of the process relies mainly on the performance of primary drying, as it represents the most time and energy-consuming stage and largely determines the quality of the final product. The common practice runs the process under pre-calculated profiles with safety margins, leading to conservative and underperforming cycles. Process control is thus a promising avenue to decrease drying duration, but it is generally confined to single-vial applications neglecting the spatial heterogeneity affecting the drying dynamics intra-lot. Additional challenges are related to the inaccessibility of key process variables or the use of intrusive instrumentation for their measurement. This research project investigates the control and optimization of the primary drying of lyophilization in vials, addressing three main aspects: modeling, estimation, and control. The conception of estimation and control strategies first requires a reliable process representation. The proposed model accommodates the fundamental equations of primary drying into a linear parameter-varying model, providing a suitable compromise between model accuracy and computational cost. This study also explores the design of in-line estimators of key process variables using non-invasive instrumentation, with applicability to pilot and industrial scale equipment. The global reading is converted to account for the contributions of individual vials, and this local measurement is used in the design of in-line estimators of the product temperature. Three estimators are formulated using the following algorithms: extended Kalman filter, moving horizon estimation, and nonlinear least square estimation. Satisfactory results open the door to the possibility of designing multi-vial estimators with the global reading of water vapor and encompassing the spatial heterogeneity of drying. The initial control framework was developed and benchmarked in simulation for a single-vial case. It considered two algorithms: a standard proportional integral control and a model predictive control. The control scheme was extended to a multi-vial problem and validated in a pilot-scale unit. Results were conclusive, process control led to significant drying time reductions compared to typical operating conditions, and the multi-vial approach yielded a highly dependable cycle.

Page generated in 0.156 seconds