• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 25
  • 20
  • 1
  • Tagged with
  • 46
  • 46
  • 17
  • 15
  • 14
  • 10
  • 9
  • 9
  • 8
  • 7
  • 6
  • 6
  • 6
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Next generation of optimization and interactive planning algorithms for brachytherapy treatments

Bélanger, Cédric 19 January 2024 (has links)
Titre de l'écran-titre (visionné le 12 janvier 2024) / La curiethérapie est une modalité de traitement du cancer utilisant le rayonnement ionisant d'une source radioactive. En curiethérapie à haut débit de dose (HDR), un appareil motorisé blindé est utilisé pour guider la source radioactive à proximité ou à l'intérieur de la tumeur par l'intermédiaire d'applicateurs intracavitaires (IC) et/ou de cathéters interstitiels (IS). En s'arrêtant un certain temps (temps d'arrêt) à des positions spécifiques (positions d'arrêt), une dose de rayonnement conforme peut être adminisitrée à la tumeur tout en épargnant les organes à risque (OARs) avoisinants. Cependant, en raison de la nature du rayonnement ionisant, il est impossible d'administrer une dose de radiation curative à la tumeur sans exposer les OARs. Ces objectifs contradictoires doivent donc être optimisés simultanément. Par conséquent, le problème de planification de traitement en curiethérapie est intrinsèquement un problème d'optimisation multicritère (MCO), où de nombreuses solutions optimales (solutions Pareto-optimales) caractérisent les compromis cliniquement importants. Actuellement, les algorithmes commerciaux de planification en curiethérapie sont limités à l'ajustement manuel d'un objectif et/ou des temps d'arrêt. À cet égard, les algorithmes de planification inverse ne peuvent générer qu'un seul plan de traitement par cycle d'optimisation (en quelques secondes de temps de calcul) sans garantie de rencontrer les critères cliniques lors du premier cycle. Cette approche peut rendre la tâche de planification itérative et fastidieuse pour les planificateurs/planificatrices. Par conséquent, la qualité du plan peut dépendre des compétences de l'utilisateur/utilisatrice. En outre, la génération itérative d'un plan de traitement par cycle d'optimisation, comme c'est le cas en clinique, ne permet pas au planificateur/ planificatrice d'explorer facilement les compromis entre le tumeur cible et les OARs. La littérature présente également une lacune importante en ce qui concerne les méthodes d'optimisation permettant d'intégrer efficacement les applicateurs IC/IS complexes récents (par exemple, l'applicateur Venezia fabriqué par Elekta, Veenendaal, Pays-Bas) pour la curiethérapie du cancer du col de l'utérus. Le principal défi pour ces applicateurs complexes est de déterminer automatiquement le nombre optimal de cathéters, leur position et leur profondeur compte tenu du grand nombre de degrés de liberté dans le problème d'optimisation et des grandes variations dans la forme des tumeurs. Pour résoudre ces problèmes, cette thèse propose une nouvelle génération d'algorithmes d'optimisation et de planification interactive pour la curiethérapie. Pour atteindre cet objectif, un algorithme MCO (gMCO) basé sur une unité de processeur graphique (GPU) est d'abord mis en œuvre et comparé à un algorithme de planification inverse standard utilisé en clinique. gMCO met en œuvre un nouveau schéma d'optimisation des plans en parallèle sur l'architecture GPU permettant d'optimiser des milliers de plans Pareto-optimaux en quelques secondes. Ensuite, pour tirer pleinement profit de MCO en clinique, une interface graphique interactive appelée gMCO-GUI est développée. Cette interface permet au planificateur/planificatrice de naviguer et d'explorer les compromis en temps réel à partir des plans Pareto-optimaux générés par gMCO. gMCO-GUI permet entre autre d'afficher les indices dose-volume histogram (DVH), les courbes DVH et les lignes d'isodose pendant la navigation. Pour intégrer le flux de travail MCO dans la clinique, la mise en service de gMCO et de gMCO-GUI est effectuée en comparaison avec Oncentra Prostate et Oncentra Brachy, deux systèmes de planification de traitement largement utilisés. Suite à la mise en service, afin de caractériser l'utilisation de la planification interactive MCO en clinique, une étude inter-observateurs est menée. Deux physiciens/physiciennes expérimentés sont invités à replanifier 20 cas de cancer de la prostate chacun à l'aide de la planification interactive MCO. La qualité des plans préférés (obtenus par navigation) est comparée entre les deux physiciens/ phyciennes et le temps de planification MCO est enregistré. De plus, trois radio-oncologues sont invités à comparer l'aveugle les plans MCO (générés par les physiciens/physiciennes) et les plans cliniques afin d'établir le meilleur plan pour chaque patient. Finalement, motivé par le manque d'algorithmes d'optimisation des cathéters et de la dose dans le traitement du cancer du col de l'utérus dans les logiciels commerciaux et dans la littérature, un nouvel algorithme d'optimisation multicritère des cathéters pour les applicateurs IC/IS complexes tels que l'applicateur Venezia est conçu. Le problème d'optimisation avec l'applicateur Venezia est difficile car les composants de l'applicateur ne sont pas coplanaires. Le gain dosimétrique de l'optimisation simultanée des cathéters et MCO est comparé à MCO seul (cathéters cliniques) et aux plans cliniques basé sur les critères EMBRACE-II. En résumé, une nouvelle génération d'algorithmes d'optimisation et de planification interactive est développée pour la curiethérapie. Les cinq chapitres principaux de cette thèse rapportent les résultats et les contributions scientifiques de ces algorithmes comparés à la planification clinique standard. La thèse guide également les utilisateurs/utilisatrices dans l'intégration du flux de travail MCO interactif dans la clinique. / Brachytherapy is a treatment modality for cancer using ionizing radiation of a radioactive source. In high-dose-rate (HDR) brachytherapy, an afterloading unit is used to guide the radioactive source near or inside the tumor via intracavity (IC) applicators and/or interstitial (IS) catheters. By stopping a specific amount of time (dwell time) at specific positions (dwell positions), a conformal radiation dose can be delivered to the tumor while spearing nearby organs at risk (OARs). However, because of the nature of ionizing radiation, it is in fact impossible to deliver the curative dose to the tumor without exposing OARs. Instead, those conflicting objectives need to be simultaneously optimized. Therefore, the planning problem in HBR is inherently a multi-criteria optimization (MCO) problem, where many optimal solutions (Pareto-optimal solutions) can effectively characterize the clinically relevant trade-offs. Current commercial planning algorithms in HDR brachytherapy are limited to the manual fine-tuning of an objective and/or dwell times. In that regard, inverse planning algorithms can generate only one treatment plan per optimization run (few seconds of optimization time) without guarantee of meeting clinical goals in the first run, which makes the planning task iterative and cumbersome for the planners. Therefore, the plan quality may be dependent on the user skills. Furthermore, iterative generation of one treatment plan per optimization run as done in the clinic does not easily allow the planner to explore the trade-offs between targets and OARs. There is also an important gap in optimization methods in the literature to efficiently incorporate recent complex IC/IS applicators (e.g., the Venezia applicator manufactured by Elekta, Veenendaal, The Netherlands) for cervical cancer brachytherapy. The main challenge for these complex applicators is to automatically determine the optimal IS catheter number, position, and depth given large number of degrees of freedom in the optimization problem and large variations in tumor shapes. To address these problems, this thesis proposes next generation of optimization and interactive planning algorithms for brachytherapy. A graphics processing unit (GPU)-based MCO algorithm (gMCO) is first implemented and compared with a standard inverse planning algorithm used in the clinic. gMCO implements a novel parallel plan optimization scheme on GPU architecture that can optimize thousands of Pareto-optimal plans within seconds. Next, to fully benefit of MCO in the clinic, an interactive graphical user interface called gMCO-GUI is developed to allow the planner to navigate and explore the trade-offs in real-time through gMCO-generated plans. gMCO-GUI enables the display of dose-volume histogram (DVH) indices, DVH curves, and isodose lines during the plan navigation. To incorporate the proposed MCO workflow the clinic, the commissioning of gMCO and gMCO-GUI is conducted against Oncentra Prostate and Oncentra Brachy, two widely used treatment planning systems. Following the commissioning, and to further characterize the utilization of MCO interactive planning in the clinic, an inter-observer study is conducted. Two experienced physicists are asked to re-plan 20 prostate cases each using MCO interactive planning. The quality of the preferred plans (obtained by plan navigation) is compared between the two physicists and the MCO planning time is recorded. In addition, three radiation oncologists are invited to blindly compare MCO plans (generated by physicists) and clinical plans to assess the best plan for each patient. Finally, motivated by the lack of catheter and dose optimization algorithms in the treatment of cervical cancer in commercial software and in the literature, a novel simultaneous catheter optimization and MCO algorithm for complex IC/IS applicators such as the Venezia applicator is designed. The optimization problem with the Venezia applicator is challenging because the applicator components are non coplanar. The dosimetric gain of simultaneous catheter optimization and MCO is compared with MCO alone (clinical catheters), and clinical plans following EMBRACE-II criteria. In summary, next generation of optimization and interactive planning algorithms are developed for brachytherapy. The five main chapters of this thesis report the findings and scientific contributions of these algorithms compared with standard clinical planning. The thesis also guide users in the integration of the proposed interactive MCO workflow in the clinic.
2

Nonlinear optimization-based control techniques applied to cement grinding and polymerization processes

Lepore, Renato 02 June 2006 (has links)
Durant ces dernières années, l’intérêt pour les techniques de commande basées sur l’optimisation augmente en raison, d’une part de la compétitivité et des réglementations accrues dans le milieu industriel, et d’autre part de la puissance de calcul disponible aujourd’hui pour leur mise en œuvre efficace. Ce travail évalue les potentialités de ces techniques sur deux applications différentes en simulation, les simulateurs ayant été préalablement identifiés sur des installations réelles. La première application consiste en un circuit fermé de broyage du ciment fini. Un nouveau modèle à paramètres distribués est établi, qui décrit les masses mais aussi les distributions granulométriques à l’aide d’un nombre réduit d’intervalles de taille. Ce modèle est utilisé ensuite dans un but de commande et d’estimation de l’état. Sur le plan de la commande, de nouveaux objectifs sont définis en relation avec la résistance du ciment produit et l’efficacité du broyage. Les variables à contrôler sont deux fractions massiques mesurées par tamisage en ligne. Une stratégie de commande prédictive (horizon glissant), multivariable et non-linéaire, est mise au point, qui assure, en agissant sur le débit des matières premières et la recirculation, des changements de production efficaces et sécurisés, c’est-à-dire en tenant compte des limites des actionneurs et du bon fonctionnement du procédé. Le schéma de commande est complété par un module « output feedback », qui permet de compenser avantageusement les incertitudes structurelles du modèle, surtout si le système (procédé ou modèle) est pré-stabilisé et partiellement linéarisé à l’aide d’une simple boucle de régulation du débit du broyeur. Sur le plan de l’estimation d’état, un algorithme à horizon glissant, dual de l’algorithme de commande prédictive, est conçu et évalué, qui permet d’estimer la charge en matériau et les granulométries à l’intérieur du broyeur à partir de mesures à la sortie du broyeur uniquement. Cet algorithme peut être étendu de manière à déterminer l’état ainsi qu’un paramètre sujet à variations lentes, comme la broyabilité du matériau. L’estimateur d’état est également intégré à la commande prédictive. L’ensemble donne de bons résultats sous l’angle de la robustesse aux erreurs de mesure et aux incertitudes paramétriques, pourvu qu’il soit aussi muni d’un module de compensation « output feedback » (comme celui mentionné ci-avant). La seconde application est un procédé batch de polymérisation du méthacrylate de méthyle (MMA). Une représentation d’état est adoptée, qui se base sur des bilans de masse (la méthode des moments est utilisée) et d’énergie. Ces équations prennent aussi en compte l’effet de gel. Grâce à ce dernier aspect du modèle, un double objectif final de qualité et de taux de conversion peut être atteint. Dans l’hypothèse où deux incertitudes existent sur le modèle (l’échange de chaleur entre la paroi du réacteur et la solution est affecté par des dépôts d’impuretés, l’effet de gel n’est pas correctement identifié), trois stratégies de commande basées sur l’optimisation sont évaluées dans le cas pratique où seule la température de la solution est mesurée. La première stratégie combine une optimisation réalisée hors ligne avec le modèle nominal qui délivre la température de solution optimale comme consigne à un contrôleur classique. Cette stratégie s’avère néanmoins insuffisante par rapport à une perturbation sur l’effet de gel. La deuxième stratégie est basée sur une approche robuste par rapport à l’effet de gel, plus précisément une approche robuste de type « pire cas » qui permet de compenser la plus grave dégradation des performances due à la perturbation sur l’effet de gel. La variante moins conservatrice de cette stratégie comportant une boucle interne de contrôle ne peut malheureusement convenir pour les deux perturbations simultanément. La troisième stratégie est basée sur le principe d’estimation/ré-optimisation, cependant avec une estimation découplée (l’effet de gel se manifeste tard dans le déroulement du procédé) et donc très efficace des paramètres. De plus, l’estimation/ré-optimisation par rapport à l’effet de gel n’est réalisée que si cela s’avère nécessaire (écart significatif par rapport à la trajectoire optimale). Cette étude met en évidence les potentialités (diversité des utilisations), la flexibilité (couplage avec des stratégies plus classiques) des techniques basées sur l’optimisation. Il apporte aussi des solutions à des problèmes rencontrés dans l’industrie, inhérents à l’incertitude sur le modèle et au nombre limité de mesures.
3

Commande optimale d'un processus de mélange

Desilets, Gilles January 1968 (has links)
La méthode d'approximation des lieux de commutation pour la commande optimale d'un processus par approximations linéaires successives de leurs projections sur les plans orthogonaux de 1'espace d'état des variables considérées est difficilement applicable dans le cas d'un processus dont l'un des paramètres varie d'une façon quelconque. Le mélangeur présente cette particularité si l'on considère qu'il peut être représenté par une constante de temps dépendante de la valeur du débit à la sortie. Les équations décrivant le fonctionnement d'un chauffe-eau avec brassage étant analogues à celles décrivant celui du mélangeur et sa réalisation étant plus simple que celle de ce dernier, le processus du chauffe-eau avec brassage est étudié ici. Les progrès de 1' électronique en ce qui a trait à la production d'éléments non-linéaires tels que les multiplicateurs permettent d'envisager la possibilité de réaliser l'approximation des lieux de commutation optimale par des polynômes dont les coefficients peuvent être adaptés continuellement à la valeur du paramètre variable si ce dernier est mesurable et de conserver ainsi des performances optimales. Pour le mélangeur, en introduisant une constante de temps de mélange et un critère de temps minimal pour ramener 1'intégrale de 1'erreur de la concentration du mélange produit à zéro, on obtient un système du -troisième ordre. Le principe du maximum donne alors une commande optimale du type "bangbang" et une possibilité de deux commutations optimales pour ramener le système à l'origine. Les approximations des surfaces et des courbes de commutation optimale sous forme de polynômes de même que 1'adaptation des vii coefficients de ces derniers en fonction du débit sont obtenus par la méthode des moindres carrés à l'aide d'm ordinateur et les résultats de la simulation sur calculatrice analogique de la commande optimale sont présentés.
4

Estimation haute-résolution de la position de cibles en mouvement à partir du suivi du sous-espace sources et d'un estimateur statistique de 2e ordre

Isabel, Marc-André 27 November 2020 (has links)
En 1995, la technologie LIDAR fait émergence en télédétection et entraîne avec elle une nouvelle forme de concurrence dans un domaine jusqu'alors dominé par les systèmes RADAR. Contrairement à ces derniers, l'émetteur d'un LIDAR opère à des fréquences au-delà des ondes radios, habituellement dans l'infrarouge, ce qui fait qu'une détection non cohérente doit être employée et que seule l'enveloppe des signaux est récupérée, formant ainsi des signaux réels. Alors que de multiples algorithmes ont été développés au l des années pour faire le traitement des signaux captés par l'antenne-réseau d'un RADAR, aucun n'était reconnu jusqu'à présent comme étant particulièrement performant lorsque utilisé avec des signaux réels. En 2015, dans le cadre d'un projet de recherche visant à améliorer la distance et la précision de la détection des objets à l'aide d'un LIDAR, une adaptation [1] du très populaire algorithme MUSIC développé par Schmidt fut réalisée a n de pouvoir l'utiliser selon le principe du temps de vol plutôt que pour les directions d'arrivée. Cette adaptation ouvrit la voie à l'utilisation d'algorithmes statistiques, à l'origine conçus pour les signaux avec information de phase, pour des signaux réels. Malheureusement, l'application directe de ces algorithmes requiert un temps d'exécution considérable et ce, en particulier lors de la formation, du traitement et de la décomposition propre de la matrice ReXX. Par conséquent, des optimisations doivent être considérées pour être en mesure d'en faire l'implantation dans du matériel à faible coût lorsqu'il est question d'opération en temps réel. Parmi ces optimisations, c'est l'utilisation de méthodes de suivi fondées sur la notion de sous-espace qui fait l'objet de cet ouvrage. Ces algorithmes reposent sur l'idée qu'il est possible d'oublier, de façon graduelle, les données du passé au pro t des nouvelles données sans avoir à passer par la formation de la matrice ReXX à chaque fois. Ainsi, les résultats démontrent qu'une réduction de 25% à 95% du temps d'exécution est possible dans un contexte d'utilisation conjointe, mais moins fréquente, avec une méthode à complexité algorithmique plus élevée. Par ailleurs, les résultats des essais réalisés par [1] ne couvrent que les cibles stationnaires. Par conséquent, ce projet vise à étendre cette étude aux cibles en mouvement. Les résultats obtenus permettent de démontrer l'efficacité des méthodes de suivi du sous-espace pour de tels cas. / In 1995, LIDAR systems emerged as a new alternative to the well-known RADAR systems for remote sensing applications. However, unlike RADAR, the operating frequency of LIDAR systems is above the radio frequencies and usually in the infrared which means that a non-coherent detection has to be used to retrieve the signal's enveloppe. While several signal processing algorithms have been developped for RADAR phased arrays, none of these algorithms are known, to this day, to be e cient when dealing with real, phaseless signals. In 2015, as part of a research project to enhance the detection precision and maximal distance of a LIDAR system, an adaptation [1] of the so-called MUSIC algorithm developped by Schmidt was realised to be used with the time-of- ight principle instead of the direction of arrival principle. Unfortunately, the direct application of the adapted algorithm was time consuming, especially the creation, processing and eigendecomposition stages of the ReXX matrix. As so, optimizations are required to allow its implementation into a low-cost system for real-time purposes. Among those optimizations, the use of subspace tracking methods will be studied in this thesis. Subspace tracking algorithms are based on the idea that instead of having to create ReXX at each data update, one can use the known data while adding the new data with a forgetting factor. The result of these optimizations is that a decrease of 25% to 95% in execution time is observed when subspace tracking is used together with a higher complexity method to initialize its parameters. The study realised by [1] was mostly done for stationary objects. This thesis aims to extend that study to non stationary objects. Results show that using subspace tracking methods is even more efficient in these cases.
5

Analyse de stratégies de triage en forêt pour une chaîne de valeur forestière efficiente

Baccouche, Mohamed Dhia Eddine 25 March 2024 (has links)
Titre de l'écran-titre (visionné le 5 septembre 2023) / L'industrie forestière canadienne joue un rôle majeur dans l'économie du pays et les forêts canadiennes représentent une source importante de bois à l'échelle mondiale. Dans ce contexte, le triage et le transport du bois revêtent une grande importance pour assurer le bon fonctionnement de la chaîne de valeur forestière. Ce projet de recherche vise à explorer différentes stratégies de triage dans les secteurs forestiers, dans le but de mieux coordonner l'approvisionnement en bois avec les besoins spécifiques des usines de transformation. Pour atteindre cet objectif, nous avons développé un modèle d'optimisation basé sur la programmation mathématique, en plus d'un outil de traitement de données permettant de traiter les données reçues de notre partenaire industriel et de former des fichiers de données pour alimenter notre modèle d'optimisation. Ce modèle permet d'évaluer la rentabilité des différentes stratégies de triage pour fournir par la suite la meilleurs distribution des méthodes de triage dans les zones de récolte forestière. Des expérimentations ont été menées en prenant en compte différents paramètres comme le nombre et le type de piles de bois formées en forêt. Notre étude a permis de mettre sur pied un modèle d'aide à la prise de décision qui facilite le choix des méthodes de triage à utiliser en forêt. Ce modèle prend en compte plusieurs facteurs, dont les types de piles pouvant être formées en forêt, la demande des usines, les distances de transport forêt-usines et les distances inter-usines. Cette recherche constitue donc une contribution intéressante dans le domaine de l'optimisation du triage et du transport du bois, en fournissant une méthodologie solide, un outil de traitement de données et un modèle d'optimisation précis. / The Canadian forest industry plays a significant role in the country's economy, while Canadian forests represent a major source of timber. In this context, wood sorting and transportation are of great importance to ensure the smooth functioning of the forest value chain. This research project aims to explore different sorting strategies in forest sectors in order to better coordinate wood supply with the specific needs of processing mills. To achieve this goal, we developed an optimization model based on mathematical programming, along with a data processing tool to exploit the data received from our industrial partner. This model allows for evaluating the profitability of different sorting strategies to subsequently provide the best distribution of sorting methods in forest harvesting areas. Experiments were conducted, taking into account various parameters such as the number and type of wood piles formed in the forest. Our study has resulted in the development of a decision-making tool that facilitates the selection of sorting methods to be used in the forest. This model takes into consideration several factors, including the types of piles that can be formed in the forest, the demand from mills, the distances for forest-to-mill and inter-mill wood transportation. This research contributes to the field of wood sorting and transportation optimization by providing a robust methodology, a data processing tool, and an accurate optimization model.
6

Meta learning for population-based algorithms in black-box optimization

Siqueira Gomes, Hugo 02 February 2024 (has links)
Les problèmes d’optimisation apparaissent dans presque tous les domaines scientifiques. Cependant, le processus laborieux de conception d’un optimiseur approprié peut demeurer infructueux. La question la plus ambitieuse de l’optimisation est peut-être de savoir comment concevoir des optimiseurs suffisamment flexibles pour s’adapter à un grand nombre de scénarios, tout en atteignant des performances de pointe. Dans ce travail, nous visons donner une réponse potentielle à cette question en étudiant comment faire un méta-apprentissage d’optimiseurs à base de population. Nous motivons et décrivons une modélisation commune pour la plupart des algorithmes basés sur la population, qui présentent des principes d’adaptation générale. Cette structure permet de dériver un cadre de méta-apprentissage basé sur un processus de décision de Markov partiellement observable (POMDP). Notre formulation conceptuelle fournit une méthodologie générale pour apprendre l’algorithme d’optimisation lui-même, présenté comme un problème de méta-apprentissage ou d’apprentissage pour optimiser à l’aide d’ensembles de données d’analyse comparative en boîte noire, pour former des optimiseurs polyvalents efficaces. Nous estimons une fonction d’apprentissage de méta-perte basée sur les performances d’algorithmes stochastiques. Notre analyse expérimentale indique que cette nouvelle fonction de méta-perte encourage l’algorithme appris à être efficace et robuste à une convergence prématurée. En outre, nous montrons que notre approche peut modifier le comportement de recherche d’un algorithme pour s’adapter facilement à un nouveau contexte et être efficace par rapport aux algorithmes de pointe, tels que CMA-ES. / Optimization problems appear in almost any scientific field. However, the laborious process to design a suitable optimizer may lead to an unsuccessful outcome. Perhaps the most ambitious question in optimization is how we can design optimizers that can be flexible enough to adapt to a vast number of scenarios while at the same time reaching state-of-the-art performance. In this work, we aim to give a potential answer to this question by investigating how to metalearn population-based optimizers. We motivate and describe a common structure for most population-based algorithms, which present principles for general adaptation. This structure can derive a meta-learning framework based on a Partially observable Markov decision process (POMDP). Our conceptual formulation provides a general methodology to learn the optimizer algorithm itself, framed as a meta-learning or learning-to-optimize problem using black-box benchmarking datasets to train efficient general-purpose optimizers. We estimate a meta-loss training function based on stochastic algorithms’ performance. Our experimental analysis indicates that this new meta-loss function encourages the learned algorithm to be sample efficient and robust to premature convergence. Besides, we show that our approach can alter an algorithm’s search behavior to fit easily in a new context and be sample efficient compared to state-of-the-art algorithms, such as CMA-ES.
7

Condition-based maintenance optimization of degrading systems

Wei, Shuaichong 20 November 2023 (has links)
Thèse ou mémoire avec insertion d'articles / L'objectif principal de cette thèse vise à analyser et optimiser les stratégies de la maintenance conditionnelle à adopter, pour les systèmes de production pouvant opérer en mode dégradé. Premièrement, nous commençons par analyser un système de production simple, composé d'une seule machine/composante pour l'étendre ensuite à des systèmes de production plus complexes. La machine est modélisée comme un système à plusieurs états allant du fonctionnement nominal jusqu'à la panne totale et chaque état de fonctionnement dégradé est caractérisé par ses propres taux de production et de produits non conformes, ainsi que par son propre niveau d'effets secondaires comme la quantité émise de dioxyde de carbone et le niveau de consommation de l'énergie. Lorsque l'état de la machine/composante atteint la limite du seuil acceptable, des actions préventives de maintenance sont déployées pour ramener la machine à un niveau de performance supérieur. Dans ce contexte, trois types de configurations sont considérés dans cette thèse: système série sans stocks intermédiaires, système à deux machines/composantes avec un stock intermédiaire et système série/parallèle sans stocks intermédiaires. Dans le premier type de configuration (i.e. système série), l'objectif de l'optimisation est de maximiser le taux de production du système. Les résultats numériques ont montré que, pour que le taux de production soit optimal, la maintenance préventive ne doit pas être optimisé pour chaque machine/composante individuellement, mais plutôt pour l'ensemble du système considéré, et que les actions de maintenance majeures devraient être appliquées aux machines goulot. Dans le deuxième type de configuration (i.e. système à deux machines et un stock intermédiaire), l'objectif de l'optimisation est de minimiser la somme des couts associés à la maintenance, au niveau de l'inventaire, aux produits non conformes et aux effets secondaires causés par la dégradation de la performance des machines, tout en maintenant le taux de production à un niveau élevé. Une méthode d'évaluation analytique est ainsi développée pour évaluer le taux de production. L'effet de la maintenance préventive et du niveau du stock a été analysé et les résultats montrent clairement qu'un cout minimal peut être obtenu lorsque la maintenance préventive est optimisée pour l'ensemble du système considéré. Dans le cas du troisième type de configuration (i.e. système série-parallèle multi-états), un nouveau modèle d'optimisation de la redondance intégrant la maintenance conditionnelle est proposé. L'objectif est de déterminer conjointement la structure du système et les actions de maintenance conditionnelle à un coût minimal, sous des contraintes de disponibilité. Pour estimer la disponibilité du système, un nouveau modèle combinant les chaînes de Markov et la technique de la fonction génératrice des moments universelle est développé. De plus, un algorithme génétique est proposé pour résoudre le problème d'optimisation combinatoire formulé. Les résultats obtenus ont montré que l'intégration des coûts d'exploitation dans le modèle d'optimisation donne de meilleurs résultats par rapport au modèle ne considérant que les coûts de conception et de maintenance. / The main objective of this thesis is to analyze and optimize the condition-based maintenance strategies to be adopted for production systems that can operate in degradation mode. First, we consider a production system composed of one machine/component and then extend it to more complex production systems. The machine is modeled as a multi-state system ranging from perfect functioning to total failure and each degraded operating state is characterized by its own production rate, fraction of nonconforming items produced and level of side effects such as the amount of carbon dioxide emitted and the level of energy consumption. When the last acceptable state of the component/machine is reached, preventive maintenance actions are deployed to bring the machine back to one of the previous higher levels of performance. In this context, three various types of common manufacturing systems are considered in this thesis: a serial system without intermediate buffers, two-machine/component manufacturing system with an intermediate buffer and a serial-parallel system without intermediate buffers. In the first type of configuration (i.e., a serial system), the objective of the optimization is to maximize the production rate of the system. The numerical results showed that the optimal preventive maintenance policies should be selected from the perspective of the whole system and major maintenance actions should be applied to the bottleneck machine of the system. In the second type of configuration (i.e., a system with two machines and an intermediate buffer), the objective of the optimization is to minimize the sum of the costs associated with maintenance, inventory level, nonconforming items and side effects caused by the degradation of machine's performance, while keeping the production rate at a high level. An analytical evaluation method is thus developed to evaluate the production rate. The effect of preventive maintenance and buffer level is analyzed, and the obtained results clearly show that a minimum cost can be reached when preventive maintenance is optimized for the whole system. In the case of the third type of configuration (i.e., a multi-state series-parallel system), a new model integrating condition-based maintenance and redundancy optimization is proposed. The objective is to jointly optimize, under availability constraints, the structure of the system and the conditional maintenance actions at a minimum cost. To estimate the availability of the system, a new model combining Markov chains and the universal moment generating function technique is developed. Moreover, a genetic algorithm is proposed to solve the formulated combinatorial optimization problem. The results obtained showed that the integration of operating costs in the optimization model gives better results, compared to the model considering only design and maintenance costs.
8

Optimum-synthesis methods for cable-driven parallel mechanisms

Azizian, Kaveh 19 April 2018 (has links)
Les mécanismes parallèles entraînés par câbles sont une classe spéciale de mécanismes parallèles pours lesquels les liaisons rigides sont remplacées par des câbles. Ces mécanismes comprennent une plateforme mobile et une base fixe, qui sont reliées par plusieurs câbles. Le contrôle des longueurs des câbles produit le mouvement désiré de la plateforme mobile. Ces mécanismes ont le potentiel de fournir des espaces de travail à grande échelle comparativement aux mécanismes parallèles conventionnels car les câbles peuvent être enroulés sur des bobines sur de grandes longueurs. Cependant, cette caractéristique est limitée par la nature des câbles, qui doivent demeurer en tension afin de produire un mouvement désiré de la plateforme principale. L'objectif principal de cette thèse est de concevoir des méthodes efficaces pour la synthèse dimensionelle optimale des mécanismes parallèles entraînés par câbles surcontraints, c'est-à-dire, des mécanismes pour lesquels le nombre de câbles excède le nombre de degrés de liberté. Plus précisément, nous souhaitons obtenir la géométrie des mécanismes parallèles entraînés par câbles dont l'espace des poses polyvalente (EPP) comprend des espaces de travail prescrits. L'espace des poses polyvalentes d'un mécanisme parallèle entraîné par câbles est l'ensemble des poses (les positions et les orientations) de l'organe terminal pour lesquelles tous les torseurs appliqués sont réalisables. Un torseur appliqué est dit réalisable, s'il peut être produit par un ensemble de câbles dont les tensions sont non-négatives. Une fois le problème de la synthèse dimensionnelle résolu, nous pouvons appliquer la solution à plusieurs reprises pour différents nombres de câbles afin d'effectuer la synthèse de la structure. Cette thèse est divisée en trois parties principales. Tout d'abord, l'espace des poses polyvalentes des mécanismes parallèles plans entraînés par câbles et les caractéristiques de leurs frontières sont étudiés. Cette étude révèle les relations jusqu'ici inconnues entre l'EPP à orientation constante (EPPOC) et les aires orientées. Un algorithme graphique est proposé afin de déterminer les types de sections coniques formant les frontières de l'EPPOC . Puis, sur la base des expressions mathématiques obtenues, une méthodologie est proposée pour résoudre le problème de la synthèse dimensionnelle des mécanismes parallèles plans entraînés par câbles pour les orientations discrètes c'est-àdire, les translations. L'algorithme est basé sur des techniques de relaxation convexe qui nous amènent à formuler la synthèse dimensionnelle comme un programme non linéaire. L'idée est de maximiser la taille de plusieurs boîtes qui représentent une approximation d'un espace de travail prescrit, tout en essayant de les garder à l'intérieur de l'EPP du mécanisme parallèle plan entraîné par câbles pendant la procédure d' optimisation. Une telle approximation de l'espace de travail prescrit est obtenue via la méthode d'analyse par intervalles. L'algorithme obtenu est étendu au cas de l'orientation en continu pour un intervalle donné d'angles d'orientation. En fait, nous introduisons un programme non linéaire permettant de varier la géométrie du mécanisme parallèle plan entraîné par câbles et maximiser le facteur d'échelle de l'ensemble prescrit de boîtes. Lorsque le facteur d'échelle optimal est supérieur ou égal à un, l'EPP du mécanismes parallèle plan entraîné par câbles résultant contient l'ensemble des boîtes prescrit. Sinon, l'EPP obtenu offre généralement une bonne couverture des boîtes prescrites. Enfin, sur la base des résultats obtenus pour des mécanismes parallèles plans entraînés par câbles, un algorithme est proposé pour résoudre la synthèse dimensionelle de mécanismes parallèles spatiaux entraînés par câbles. Comme pour le cas plan, nous proposons un programme non linéaire à grande échelle dont les solutions optimales peuvent fournir des geometries de mécanismes parallèles spatiaux entraînés par câbles pour un espace de travail prescrit dans une plage donnée des angles d'orientation. L'efficacité de ces méthodes est émontrée par plusieurs exemples en utilisant un logiciel développé. En outre, cette thèse fournit un outil efficace pour les concepteurs de robots parallèles entraînés par câbles
9

Améliorations aux systèmes à initiative partagée humain-ordinateur pour l'optimisation des systèmes linéaires

Chéné, François 02 February 2024 (has links)
La programmation linéaire permet d’effectuer l’optimisation de la gestion des réseaux de création de valeur. Dans la pratique, la taille de ces problèmes demande l’utilisation d’un ordinateur pour effectuer les calculs nécessaires, et l’algorithme du simplexe, entre autres, permet d’accomplir cette tâche. Ces solutions sont cependant construites sur des modèles approximatifs et l’humain est généralement méfiant envers les solutions sorties de « boîtes noires ». Les systèmes à initiative partagée permettent une synergie entre, d’une part, l’intuition et l’expérience d’un décideur humain et, d’autre part, la puissance de calcul de l’ordinateur. Des travaux précédents au sein du FORAC ont permis l’application de cette approche à la planification tactique des opérations des réseaux de création de valeur. L’approche permettrait l’obtention de solutions mieux acceptées. Elle a cependant une interface utilisateur limitée et contraint les solutions obtenues à un sous-espace de l’ensemble des solutions strictement optimales. Dans le cadre de ce mémoire, les principes de conception d’interface humain-machine sont appliqués pour concevoir une interface graphique plus adaptée à l’utilisateur type du système. Une interface basée sur le modèle de présentation de données de l’outil Logilab, à laquelle sont intégrées les interactivités proposées par Hamel et al. est présentée. Ensuite, afin de permettre à l’expérience et à l’intuition du décideur humain de compenser les approximations faites lors de la modélisation du réseau de création de valeur sous forme de problème linéaire, une tolérance quant à l’optimalité des solutions est introduite pour la recherche interactive de solutions alternatives. On trouvera un nouvel algorithme d’indexation des solutions à combiner et une nouvelle heuristique de combinaison convexe pour permettre cette flexibilité. Afin d‘augmenter la couverture de l’espace solutions accessible au décideur humain, un algorithme de recherche interactive de solution basé sur le simplexe est introduit. Cet algorithme présente une stabilité similaire à la méthode de Hamel et al., mais ses performances en temps de calcul sont trop basses pour offrir une interactivité en temps réel sur de vrais cas industriels avec les ordinateurs présentement disponibles.Une seconde approche d’indexation complète de l’espace solutions est proposée afin de réduire les temps de calcul. Les nouveaux algorithmes « Linear Redundancyless Recursive Research » (Recherche linéaire récursive sans redondance, LRRR) pour la cartographie et l’indexation de l’espace solutions et « N-Dimension Navigation Direction » (direction de navigation à n-dimensions, NDND) pour l’exploration interactive de celui-ci sont présentés. Ces algorithmes sont justes et rapides, mais ont cependant un coût mémoire au-delà de la capacité des ordinateurs contemporains. Finalement, d’autres pistes d’exploration sont présentées, notamment l’exploitation des méthodes du point intérieur et de l’algorithme de Karmarkar ainsi qu’une ébauche d’approche géométrique.
10

Résolution par sous-domaines de problèmes linéaires par la méthode optimisée de Schwarz

Maheux, Dominique 19 April 2018 (has links)
Nous allons étudier la résolution de problèmes linéaires en trois dimensions à l'aide de la méthode optimisée de Schwarz. Pour ce faire, nous allons d'abord présenter la méthode classique de Schwarz. Nous ferons une étude de convergence pour un problème type à l'aide de l'analyse de Fourier. Par la suite, nous expliquerons brièvement la méthode de discrétisation utilisée dans nos calculs, c'est-à-dire celle des éléments finis. Nous en profiterons pour présenter les problèmes à l'étude, soit les problèmes de diffusion et d'élasticité linéaire. Nous regarderons ensuite une généralisation de la méthode classique qui mènera à la méthode optimisée de Schwarz. De plus, nous proposerons la version discrète de la méthode optimisée. Finalement, quelques résultats numériques seront présentés. Nous mettrons en évidence plusieurs choix optimaux de paramètres pour des domaines homogènes et hétérogènes.

Page generated in 0.1458 seconds