Spelling suggestions: "subject:"méthodes dde simulation"" "subject:"méthodes dee simulation""
51 |
The value of hydrological information in multireservoir systems operationPina Fulano, Jasson 21 September 2024 (has links)
La gestion optimale d’un système hydroélectrique composé de plusieurs réservoirs est un problème multi-étapes complexe de prise de décision impliquant, entre autres, (i) un compromis entre les conséquences immédiates et futures d’une décision, (ii) des risques et des incertitudes importantes, et (iii) de multiple objectifs et contraintes opérationnelles. Elle est souvent formulée comme un problème d’optimisation, mais il n’existe pas, à ce jour, de technique de référence même si la programmation dynamique (DP) a été souvent utilisée. La formulation stochastique de DP (SDP) permet la prise en compte explicite de l’incertitude entourant les apports hydrologiques futurs. Différentes approches ont été développées pour incorporer des informations hydrologiques et climatiques autres que les apports. Ces études ont révélé un potentiel d’amélioration des politiques de gestion proposées par les formulations SDP. Cependant, ces formulations sont applicables aux systèmes de petites tailles en raison de la célèbre « malédiction de la dimensionnalité ». La programmation dynamique stochastique duale (SDDP) est une extension de SDP développée dans les années 90. Elle est l’une des rares solutions algorithmiques utilisées pour déterminer les politiques de gestion des systèmes hydroélectriques de grande taille. Dans SDDP, l’incertitude hydrologique est capturée à l’aide d’un modèle autorégressif avec corrélation spatiale des résidus. Ce modèle analytique permet d’obtenir certains des paramètres nécessaires à l’implémentation de la technique d’optimisation. En pratique, les apports hydrologiques peuvent être influencés par d’autres variables observables, telles que l’équivalent de neige en eau et / ou la température de la surface des océans. La prise en compte de ces variables, appelées variables exogènes, permet de mieux décrire les processus hydrologiques et donc d’améliorer les politiques de gestion des réservoirs. L’objectif principal de ce doctorat est d’évaluer la valeur économique des politiques de gestion proposées par SDDP et ce pour diverses informations hydro-climatiques. En partant d’un modèle SDDP dans lequel la modélisation hydrologique est limitée aux processus Makoviens, la première activité de recherche a consisté à augmenter l’ordre du modèle autorégressif et à adapter la formulation SDDP. La seconde activité fut dédiée à l’incorporation de différentes variables hydrologiques exogènes dans l’algorithme SDDP. Le système hydroélectrique de Rio Tinto (RT) situé dans le bassin du fleuve Saguenay-Lac-Saint-Jean fut utilisé comme cas d’étude. Étant donné que ce système n’est pas capable de produire la totalité de l’énergie demandée par les fonderies pour assurer pleinement la production d’aluminium, le modèle SDDP a été modifié de manière à considérer les décisions de gestion des contrats avec Hydro Québec. Le résultat final est un système d’aide à la décision pour la gestion d’un large portefeuille d’actifs physiques et financiers en utilisant diverses informations hydro-climatiques. Les résultats globaux révèlent les gains de production d’énergie auxquels les opérateurs peuvent s’attendre lorsque d’autres variables hydrologiques sont incluses dans le vecteur des variables d’état de SDDP. / The optimal operation of a multireservoir hydroelectric system is a complex, multistage, stochastic decision-making problem involving, among others, (i) a trade-off between immediate and future consequences of a decision, (ii) considerable risks and uncertainties, and (iii) multiple objectives and operational constraints. The reservoir operation problem is often formulated as an optimization problem but not a single optimization approach/algorithm exists. Dynamic programming (DP) has been the most popular optimization technique applied to solve the optimization problem. The stochastic formulation of DP (SDP) can be performed by explicitly considering streamflow uncertainty in the DP recursive equation. Different approaches to incorporate more hydrologic and climatic information have been developed and have revealed the potential to enhance SDP- derived policies. However, all these techniques are limited to small-scale systems due to the so-called curse of dimensionality. Stochastic Dual Dynamic Programming (SDDP), an extension of the traditional SDP developed in the 90ies, is one of the few algorithmic solutions used to determine the operating policies of large-scale hydropower systems. In SDDP the hydrologic uncertainty is captured through a multi-site periodic autoregressive model. This analytical linear model is required to derive some of the parameters needed to implement the optimization technique. In practice, reservoir inflows can be affected by other observable variables, such snow water equivalent and/or sea surface temperature. These variables, called exogenous variables, can better describe the hydrologic processes, and therefore enhance reservoir operating policies. The main objective of this PhD is to assess the economic value of SDDP-derived operating policies in large-scale water systems using various hydro-climatic information. The first task focuses on the incorporation of the multi-lag autocorrelation of the hydrologic variables in the SDDP algorithm. Afterwards, the second task is devoted to the incorporation of different exogenous hydrologic variables. The hydroelectric system of Rio Tinto (RT) located in the Saguenay-Lac-Saint-Jean River Basin is used as case study. Since, RT’s hydropower system is not able to produce the entire amount of energy demanded at the smelters to fully assure the aluminum production, a portfolio of energy contacts with Hydro-Québec is available. Eventually, we end up with a decision support system for the management of a large portfolio of physical and financial assets using various hydro-climatic information. The overall results reveal the extent of the gains in energy production that the operators can expect as more hydrologic variables are included in the state-space vector.
|
52 |
Le transport intrahospitalier : conception et développement d'un modèle de simulationPainchaud, Maxime 11 December 2024 (has links)
Afin de supporter les différentes activités au sein d’un centre hospitalier, le département de logistique est primordial pour offrir un service de qualité. Plus particulièrement, un service de brancarderie est nécessaire afin d’acheminer les patients non autonomes ou du matériel aux différentes unités de soins. La planification de ces activités de transport présente d’importants défis, car elle s’opère dans un environnement dynamique et imprévisible. En plus, l’aspect humain des transports apporte son lot de complication. Ce document traitera de la problématique du transport intrahospitalier au Centre Hospitalier Universitaire de Sherbrooke (CHUS). Cet établissement de santé coordonne ses activités de transports par le biais d’un système centralisé affectant des requêtes de transports aux différents brancardiers. L’outil de simulation va permettre de reproduire les flux à l’intérieur d’un établissement cible. Ensuite, le comportement du modèle de simulation sera mesuré et analysé lorsque des modifications au niveau des différents paramètres sont apportées.
|
53 |
L'empathie et la vidéoconférence en séances simulées de téléthérapieGrondin, Frédéric 13 December 2023 (has links)
La téléthérapie, soit l'offre de soins en psychothérapie à l'aide de moyens de communication comme la vidéoconférence (VC), est une modalité de traitement de plus en plus utilisée. Bien que la recherche montre que cette modalité soit aussi efficace que les suivis en présentiel et qu'elle permette la création de l'alliance thérapeutique avec les clients, des préoccupations subsistent quant à la possibilité que l'empathie soit impactée dans les suivis de téléthérapie par VC. Les quelques données disponibles indiquent que l'empathie ressentie par les thérapeutes et perçue par les clients pourrait être moindre en VC qu'en présentiel, ce qui n'a pas encore été testé expérimentalement. Cet écart d'empathie proviendrait de la perte relative de certains indices non verbaux en VC, notamment du contact visuel. Considérant que l'empathie constitue un prédicteur de l'issue thérapeutique, il importe 1) d'élucider les mécanismes propres au contexte de VC qui influencent l'empathie, 2) de tester quantitativement la présence d'une différence d'empathie entre les séances en VC et celles en présentiel et 3) de développer des méthodes par lesquelles optimiser l'empathie en téléthérapie. Ces objectifs sont abordés par l'entremise des quatre chapitres de la thèse. Le premier chapitre aborde le développement d'un cadre conceptuel rendant compte de l'effet de filtre présent dans un contexte de communication virtuelle et du probable impact délétère de cet effet de filtre sur l'empathie en téléthérapie. Le chapitre 2, au moyen de deux études, montre que les niveaux d'empathie ressentie et perçue lors de séances simulées de thérapie sont moins élevés en VC qu'en présentiel. Le chapitre 2 identifie également que certains éléments de la téléprésence, soit l'impression pour les thérapeutes et les clients d'être ensemble durant l'appel en VC, corrèlent avec l'empathie rapportée par les thérapeutes et les clients. Les chapitres 3 et 4 investiguent l'effet du contact visuel sur l'empathie perçue en téléthérapie. Le chapitre 3 décrit d'abord le développement d'une méthodologie simple permettant de préserver la perception de contact visuel en diminuant l'angle de regard situé entre la caméra web et les yeux de l'interlocuteur sur l'écran d'ordinateur. Le chapitre 4 reprend cette méthodologie pour créer deux conditions expérimentales, avec ou sans contact visuel en VC. Les résultats montrent que, contrairement aux hypothèses initiales, le fait de pouvoir établir un contact visuel n'augmente pas les niveaux d'empathie et de téléprésence rapportés par les clients en séances simulées de téléthérapie. Des données d'oculométrie prélevées durant les séances montrent que les clients ne regardent pas davantage les yeux et le visage du thérapeute dans la condition avec contact visuel. Une association est toutefois observée entre le temps passé à regarder les yeux du thérapeute et l'empathie rapportée par les clients, mais seulement dans la condition avec contact visuel. Ces données indiquent ainsi que les clients sont en mesure de percevoir l'empathie en VC, que le contact visuel soit possible ou non. La thèse démontre que l'empathie peut être affectée en contexte de VC, mais également que les clients peuvent s'ajuster à l'altération de certains indices non verbaux lorsqu'ils jaugent l'empathie du thérapeute. Ces résultats sont encourageants vu l'usage grandissant de cette modalité de traitement en contexte de pandémie mondiale de COVID-19. / Teletherapy, defined as the use of a communication medium such as videoconference (VC) to conduct psychotherapy sessions at a distance, is increasingly used by therapists and clients. The use of teletherapy has seen a surge during the COVID-19 pandemic as a means to comply with the recommended social distancing measures. Though teletherapy has produced comparable outcomes to traditional, in-person therapy and is deemed a suitable modality for the establishment of therapeutic alliance, concerns remain over the possibility that empathy could be altered in teletherapy through VC. The available data, although limited, support the hypothesis that empathy could be lower in VC than in in-person sessions, but this has yet to be empirically tested. The relative loss of nonverbal cues in VC, such as the alteration of eye contact, could account for this potential discrepancy in empathy. There is therefore a need 1) to describe the influence of the VC medium on the mechanisms underlying empathy, 2) to quantitatively compare the levels of empathy in VC sessions to those in in-person sessions, and 3) to design a procedure to enhance empathy in VC sessions. These objectives are addressed in the four chapters of this thesis. The first chapter consists in the elaboration of a conceptual framework of online empathy. The conceptual framework describes the filter effect induced by online environments on nonverbal signals and its potential adverse influence on empathy in VC. Chapter 2 describes a study showing a decrease in empathy reported by therapists and clients taking part in simulated clinical sessions in VC and in-person settings. The results also reveal a significant correlation between empathy and telepresence, a term that relates to the impression for clients and therapists of being there, together in a VC interaction. The studies described in Chapters 3 and 4 aim at identifying the impact of eye contact on perceived empathy in teletherapy. Chapter 3 first describes the development of a simple methodology that facilitates eye contact in VC by decreasing the gaze angle between the webcam and the eyes of the other interactant on the screen. This methodology is employed in the experiment described in Chapter 4 to either allow or prevent eye contact from the clients' perspective during simulations of clinical sessions. The results show that, contrary to the hypothesis, facilitating eye contact in VC does not lead to higher levels of empathy and telepresence. Eye tracking data collected during the sessions showed that clients did not look more at the eyes and the face of therapists when eye contact was facilitated. However, a significant, positive correlation was observed between the time spent looking into the eyes of the therapist and the levels of empathy reported, but only in the sessions where eye contact was facilitated. These results show that clients can perceive empathy in VC, whether eye contact is altered or not. Overall, the findings of the thesis demonstrate that empathy can be altered in VC sessions but also highlight the capacity of clients to adapt to the alteration of nonverbal signals when assessing therapist empathy.
|
54 |
Prévision de la demande d'essence au CanadaGuelmbaye, Ngarsandje 23 April 2018 (has links)
Ce mémoire compare le pouvoir prédictif de 6 modèles de demande d’essence au Canada. Le modèle de tendance linéaire, le modèle à tendance quadratique, le modèle à tendance exponentielle, le modèle d’ajustement partiel ainsi que deux modèles basés sur l’approche Box-Jenkins ont été évalués. Le modèle d’ajustement partiel permet de montrer que la demande d’essence est inélastique par rapport au revenu ainsi qu’au prix. Toutefois, l’élasticité-revenu est plus forte que l’élasticité prix. Sur base de cette analyse, il est prévu qu’en 2020, au quatrième trimestre, la demande d’essence par habitant au Canada augmentera de moins d’un pourcent relativement au quatrième trimestre 2009.
|
55 |
Prédire le temps de trajet à l'aide des méthodes d'apprentissage profondLassakeur, Imad Eddine 07 June 2024 (has links)
Avec l'urbanisation croissante et l'augmentation des flux de trafic, les villes font face à des défis majeurs de congestion, de pollution, et de réduction de la qualité de vie. Comprendre et prédire les durées de trajet devient donc essentiel pour optimiser la mobilité urbaine et améliorer l'expérience quotidienne des citadins. Dans ce projet, nous avons adapté et expérimenté une méthode novatrice pour la prédiction des temps de trajet, combinant l'apprentissage automatique avec une analyse approfondie des données de circulation. Notre étude a débuté par un état de l'art des méthodes existantes, passant des modèles empiriques aux techniques d'intelligence artificielle avancées, et a mis en évidence les avantages des modèles hybrides. Nous avons conçu un processus détaillé qui commence par la collecte de données diverses, y compris des historiques de trafic, des informations structurelles des routes, et des conditions météorologiques. Ces données ont été traitées et analysées par segments pour souligner la nécessité d'approches localisées dans la prédiction. Notre application pratique sur le terrain urbain complexe de la ville de Québec a utilisé des données issues de Google Maps, OpenStreetMaps et WeatherEnvironment. Elle a prouvé l'efficacité d'un modèle hybride combinant des réseaux de neurones récurrents (GRU) et XGBoost. Ce modèle a démontré des performances supérieures par rapport aux méthodes traditionnelles, offrant des prédictions de temps de trajet plus précises et fiables. Les résultats ont également validé l'importance de l'analyse segmentée des parcours et la pertinence de sélectionner des caractéristiques influentes. Cette recherche contribue significativement au domaine de la gestion de la mobilité urbaine, ouvrant des perspectives pour l'optimisation des systèmes de navigation intelligents et la planification efficace du trafic. L'extension de cette méthodologie à d'autres contextes urbains et l'intégration de données en temps réel offrent des avenues prometteuses pour des recherches futures, visant à rendre nos villes plus intelligentes, durables et agréables pour leurs résidents. / With increasing urbanization and rising traffic flows, cities face major challenges including congestion, pollution, and reduced quality of life. Understanding and predicting travel times is thus crucial for optimizing urban mobility and enhancing the daily experience of city dwellers. In this project, we adapted and experimented with an innovative method for predicting travel times, combining machine learning with a thorough analysis of traffic data. Our study began with a state-of-the-art review of existing methods, ranging from empirical models to advanced artificial intelligence techniques, highlighting the benefits of hybrid models. We designed a detailed process starting with the collection of various data, including traffic history, road structural information, and weather conditions. These data were processed and analyzed by segments to underscore the need for localized approaches in prediction. Our practical application in the complex urban terrain of Quebec City used data from Google Maps, OpenStreetMaps, and WeatherEnvironment. It proved the effectiveness of a hybrid model combining recurrent neural networks (GRU) and XGBoost. This model demonstrated superior performance compared to traditional methods, providing more accurate and reliable travel time predictions. The results also validated the importance of segmented analysis of routes and the relevance of selecting influential features. This research significantly contributes to the field of urban mobility management, opening perspectives for optimizing intelligent navigation systems and efficient traffic planning. Extending this methodology to other urban contexts and integrating real-time data offers promising avenues for future research aimed at making our cities smarter, more sustainable, and more enjoyable for their residents.
|
56 |
Gestion des systèmes automatisés d'entreposage : simulation, optimisation et résultats empiriquesGagliardi, Jean-Philippe 18 April 2018 (has links)
Les systèmes automatisés d'entreposage {Automated Storage and Retrieval Systems- AS/RS) sont considérés aujourd'hui comme une technologie de pointe dans le domaine de l'entreposage et de la distribution à haut débit. L'implantation d'un tel système représente un investissement corporatif majeur, il est donc attendu que son niveau de performance soit élevé. Ce niveau de performance, pour un environnement donné, est le résultat d'un ensemble de décisions relatives à la fois au design et au contrôle du système. Pour cette raison, tant aux niveaux industriel qu'académique, on cherche à développer des approches permettant de modéliser, concevoir et contrôler au mieux ces systèmes qui jouent un rôle critique dans les chaînes logistiques modernes. À cette fin, plusieurs approches issues de la recherche opérationnelle peuvent être appliquées. Cette thèse comporte quatre articles, présentant chacun un aspect distinct de l'étude des AS/RS. Nous présentons, dans le premier article, une revue de littérature traitant des approches de modélisation des AS/RS. L'étude met l'accent sur les hypothèses de modélisation employées dans les différents articles et qui ne sont pas toujours intuitives, ni même mentionnées. Cette réalité fait en sorte qu'il est parfois très difficile d'exploiter les résultats de recherches précédentes afin de les transposer dans un autre contexte. En plus d'isoler les hypothèses de modélisation, nous présentons une structure séparant les différentes questions de recherche en fonction des problèmes étudiés. Les résultats de cette revue prennent la forme d'une synthèse permettant d'associer, pour un problème donné, les études et résultats provenant de contextes similaires. Nous proposons dans le second article un modèle de simulation à événements discrets conçu pour étudier les AS/RS à charge unitaire. En prenant appui sur la programmation orientée-objet, le modèle a été conçu de manière à pouvoir aisément modéliser plusieurs configurations, comme par exemple les systèmes à plusieurs allées ou les AS/RS visant à gérer la collecte de petits items dans des contenants. Une description détaillée du moteur de simulation est donnée. C'est grâce à ce modèle que les chapitres subséquents ont pu voir le jour, en permettant l'étude empirique de ces systèmes hautement complexes et dynamiques. Dans le troisième article, nous présentons une étude sur le problème de gestion de l'espace dans les AS/RS. Ce problème consiste à définir, pour chaque localisation de stockage, le ou les produits pouvant y être stockés. Nous nous intéressons principalement à l'étude de l'entreposage par zones dont le nombre peut varier entre une seule zone et autant de zones qu'il y a de produits. La gestion de l'espace a suscité beaucoup d'intérêt scientifique vers la fin des années 70. Plusieurs modèles analytiques ont été formulés, résultant en certaines conclusions largement acceptées dans tous les milieux. Cependant, nous constatons que la validité de ces modèles analytiques repose sur certaines hypothèses restrictives. À l'aide du modèle de simulation présenté, nous montrons que ces conclusions ne tiennent plus lorsque nous nous transposons dans un contexte réaliste. Ce nouveau résultat nous amène à voir la gestion de l'espace en fonction des caractéristiques des produits entreposés. Dans le quatrième article, nous portons notre attention sur le problème de séquencement des requêtes dans un AS/RS. Le séquencement des requêtes consiste à définir l'ordre dans lequel les requêtes de stockage et de collecte seront complétées selon un horizon à durée déterminée, dans un objectif de minimisation du temps de cycle moyen. Cela revient à maximiser le rendement du système. Pour ce faire, nous proposons une adaptation des heuristiques de la littérature pour traiter le cas de séquencement dynamique, puis nous proposons une des premières formulations mathématiques au problème. Par la suite, nous évaluons les opérations du système à l'aide du modèle de simulation détaillé dans le deuxième article. Les résultats empiriques obtenus illustrent l'effet positif du séquencement sur la performance du système en plus de fournir une comparaison des différentes approches de séquencement étudiées. À travers ces quatre chapitres, nous démontrons que la simulation et l'optimisation des systèmes automatisés d'entreposage posent plusieurs défis. Nous avons présenté un modèle de simulation robuste qui a permis de faire avancer les connaissances dans le domaine de la gestion de l'espace et du séquencement des requêtes.
|
57 |
Amélioration de l'efficacité énergétique d'un circuit de broyage à rouleaux à haute pression par la commande prédictive économiqueThivierge, Alex 13 December 2023 (has links)
Le traitement du minerai s'effectue en deux étapes : la comminution et la séparation des particules. La première comprend le broyage, un procédé très énergivore. Celui-ci consomme près de la moitié de l'énergie des sites miniers. Il a déjà été démontré que remplacer le broyeur primaire conventionnel par le broyeur à rouleaux à haute pression (HPGR) permettait de diminuer la consommation énergétique des usines. Ceci s'explique en raison de son mécanisme de fragmentation. Contrairement aux broyeurs conventionnels qui brisent les particules par impacts et attrition, le HPGR fait appel à la compression, plus efficace énergétiquement. Remplacer les systèmes de contrôle du statu quo par la commande prédictive économique (EMPC) pourrait réduire davantage la consommation énergétique des usines avec HPGR, car celle-ci considère le coût énergétique dans sa fonction objectif. Jusqu'à maintenant, ce scénario n'a pas été étudié. Cette recherche comble cette lacune. La mener à terme a nécessité de programmer des simulateurs de HPGR et de flottation. Le corpus contient déjà plusieurs modèles de HPGR, mais la majorité de ceux-ci présume que les fragments de minerai ne glissent pas dans l'espacement entre les rouleaux, une hypothèse qui n'avait pas été vérifiée. Les objectifs de la recherche sont donc : 1. de vérifier l'hypothèse d'absence de glissement du minerai dans l'espacement des rouleaux du HPGR ; 2. de développer un simulateur de HPGR permettant d'étudier le contrôle de procédé à l'échelle de l'usine ; 3. de modéliser mathématiquement la performance de flottation aux caractéristiques du produit de broyage et 4. de quantifier l'impact économique et énergétique de la commande prédictive économique à l'échelle globale à partir d'une étude de cas par simulation. Ces travaux invalident plusieurs modèles de HPGR en démontrant, à l'aide d'un bilan de matière, que le glissement se produit pour un jeu de données. Concevoir un observateur a permis de quantifier la vitesse de glissement. Celui-ci est basé sur des bilans de force, de matière et d'énergie. Il fait appel au critère de friction de Coulomb et à d'autres relations empiriques. Cette thèse présente ensuite le développement d'un modèle de HPGR ne faisant aucune hypothèse restrictive sur le glissement. Ce modèle suppose un écoulement piston divisé en plusieurs zones le long des rouleaux. Il comprend quatre sous-modèles : 1. espacement entre les rouleaux - fonction empirique de la force spécifique ; 2. débit massique du produit - équation de continuité améliorée d'un facteur de correction ; 3. puissance soutirée - fonction de l'angle d'application de la force de broyage et 4. distribution granulométrique du produit - approche populationnelle cumulative résolue dans le domaine énergétique. Son calibrage pour 18 jeux de données a permis d'évaluer sa validité. Le manuscrit continue avec la proposition d'un modèle empirique de la constante cinétique de flottation en fonction de la taille et de la composition des particules. En reliant le simulateur de broyage aux performances de flottation, il permet la réalisation de l'étude de contrôle de procédé à l'échelle de l'usine. Celle-ci s'accomplit en comparant l'efficacité énergétique et la performance économique des réponses de plusieurs systèmes de contrôle à une séquence donnée de perturbations. Les résultats principaux sont énumérés ci-après. 1. Comparativement à une stratégie de contrôle de procédés qui maintient le débit de minerai frais alimenté constant, un système qui manipule cette variable consomme moins d'énergie spécifique et produit une performance économique supérieure malgré une détérioration du rendement métal. 2. Une stratégie basée sur des contrôleurs de type proportionnel-intégral (PI) décentralisés permet d'obtenir la même performance économique que la EMPC, car l'optimum économique se situe au point de rencontre de contraintes d'opération du système. 3. La EMPC peut accroitre l'efficacité énergétique si son critère contient une composante pénalisant la puissance soutirée explicitement, mais au prix d'une diminution de la performance économique. En somme, la recherche montre qu'une stratégie de commande multivariable judicieuse mène à des performances économiques et énergétiques supérieures comparativement à une stratégie de commande de base pour une usine avec HPGR. Des performances équivalentes peuvent toutefois être obtenues autant avec une EMPC qu'avec une stratégie décentralisée faisant appel à des régulateurs PI. / Mineral processing comprises two steps : comminution and separation of the particles. The first one includes grinding, an energy-inefficient process consuming about half the energy of mine sites. It was previously demonstrated that replacing conventional grinding technologies by high-pressure grinding rolls (HPGR) reduces the specific energy consumption of mineral processing plants. The different breakage mechanisms explain these results. In contrast to conventional grinding mills that break particles by impact and attrition, the HPGR fragments them by compression, which exhibits higher energy efficiency. Replacing current process control systems with economic model predictive control (EMPC) could further reduce the energy consumption of HPGR grinding circuits since it considers the energy cost within its objective function. This solution remains unexplored as of now. This work aims at filling this gap. Doing so requires programming HPGR and flotation simulators. The literature already contains several HPGR models. Most of them, however, assume the ore does not slip against the surface of the rolls even though this assumption has yet to be validated. This research therefore aims: 1. to verify whether the ore fragments may slip or not in the HPGR working gap; 2. to develop an HPGR simulator enabling the study of plant-wide process control; 3. to model mathematically the flotation response to the grinding product characteristics, and 4. to quantify the performance of plant-wide EMPC in a simulated case study using specific energy consumption and the product net value as metrics. The results invalidate several HPGR models by showing, through a mass balance, that the ore fragments slip in the HPGR working gap for a data set. Developing an observer allowed quantifying the speed at which they do. It makes use of force, mass, and energy balances, the Coulomb friction criterion, and other empirical models. This thesis then presents a novel HPGR model that makes no restricting hypothesis regarding slip. It considers several parallel plug flow reactors along the length of the rolls. It comprises four sub-models: 1. working gap - empirical function of the specific force; 2. product mass flow rate - continuity equation improved with a correction factor; 3. power draw - function of the grinding force application angle, and 4. product particle size distribution - cumulative population balance model solved in the energy domain. Calibrating the model on 18 data sets allowed evaluating its validity. The manuscript follows with the proposal of an empirical model for the flotation kinetic constant as a function of the particle size and composition. It therefore links the flotation process performance to the grinding circuit, in turn allowing the plant-wide process control study to take place. To do so, the simulator introduces a given disturbance sequence to different control strategies. It makes use of energy efficiency and product hourly net value as comparison metrics. The main results are listed thereafter. 1. In contrast to a control system maintaining constant feed rate, a system that manipulates this variable consumes less specific energy and generates more profits even though the metal recovery decreases. 2. A control strategy based on decentralized proportional-integral (PI) controllers allows generating the same economic output as the EMPC because the system's constraints define the economic optimum. 3. EMPC can reduce the grinding circuit specific energy consumption by including a penalty for HPGR power draw in the objective function, albeit at the cost of a lower economic performance. Overall, the research shows that a well-designed multivariable control system results in higher economic performance and energy efficiency in comparison to a basic regulatory control system for a plant comprising HPGR grinding. This being said, both EMPC and PI-based decentralized regulatory control produce equivalent performances. / Thèse ou mémoire avec insertion d'articles.
|
58 |
Développement d'un outil de simulation par Monte Carlo du rayonnement diffusé en tomodensitométrieSaucier, Marie Annie 04 January 2025 (has links)
L’objectif de ce projet est de créer un programme logiciel permettant de corriger le rayonnement diffusé dans une acquisition tomodensitométrique à géométrie conique. Pour ce faire, une simulation Monte Carlo est utilisée pour estimer le rayonnement diffusé, ce qui consiste à reproduire numériquement un examen en tomodensitométrie. Ce projet a été divisé en deux sections : la validation de la physique pour ce programme spécifique et le développement logiciel du programme. La validation consistait à reproduire les résultats obtenus avec Geant4 avec GPUMCD. Geant4, la plateforme de référence, et GPUMCD, la plateforme à l’étude, sont deux librairies logicielles pour la simulation numérique du transport de particules à travers la matière utilisant les calculs Monte Carlo. Les éléments étudiés sont les sections efficaces, les matériaux, l’algorithme de diffusion Rayleigh et l’algorithme de diffusion Compton. Bien que quelques erreurs persistent dans la physique de GPUMCD, une nette amélioration des résultats entre GPUMCD et Geant4 a été obtenue. La différence entre les deux simulations qui était supérieure à 100% pour une géométrie complexe est passée sous la barre du 10%. De plus, il a été possible d’identifier quelques autres causes telles qu’une différence dans la définition des modèles physiques, et ce, plus précisément dans l’algorithme de diffusion Compton. En ce qui concerne la seconde partie du projet, bien que la correction n’a pu être effectuée pour une reconstruction, tous les éléments ont été implémentés pour estimer le rayonnement diffusé pour une géométrie de patient provenant de données cliniques d’une reconstruction tomodensitométrique. Les paramètres et les stratégies étudiés dans le but d’optimiser le temps de calculs tout en conservant la justesse des résultats sont : le traçage de rayons, le lissage gaussien du rayonnement diffusé, la réduction du nombre de pixels sur le détecteur, l’interpolation des projections, la symétrie et la réduction de nombre de voxels dans le patient. De plus, en considérant une correction de haute qualité, soit 2% d’erreur et moins par stratégie implémentée, on obtient un temps de simulation de moins de 2 minutes sur une GPU Nvidia Titan X. Pour une simulation dite de basse qualité, soit 5% d’erreur et moins par stratégie implémentée, on obtient un temps d’exécution de moins de 15 s par simulation. Cela correspond à des temps cliniquement acceptables si le patient doit attendre sur la table. / The goal of this project is to develop an application to correct the scattered radiation in a cone beam computed tomography scan (CBCT). A Monte Carlo simulation is used to estimate the scattered radiation which is a numerical replication of a CBCT acquisition. This project has been divided into two sections : the validation of the physics for this specific application and the development of the application. The validation consisted in reproducing the results obtained with Geant4 in GPUMCD. Geant4 is the reference platform and GPUMCD is the platform studied. Both are Monte Carlo simulators of the passage of particles through matter.The elements studied are the cross sections, the materials, the Rayleigh scattering algorithm and the Compton scattering algorithm. Although some errors are still present, a great improvement of the results between GPUMCD and Geant4 was obtained. The difference between the two simulations was greater than 100 % for complex geometries and dropped below 10% after corrections of the physics. In addition, it was possible to identify some other problems such as a theoretical difference in the Compton scattering algorithms. Regarding the second part of the project, although the correction could not be implemented in a reconstruction, all elements are present to estimate the scattered radiation for an actual CBCT reconstruction. The parameters and strategies studied in order to optimize the computation time while maintaining the accuracy of the results are : ray tracing, Gaussian smoothing of scattered radiation, reduction of the number of pixels on the detector, interpolation of between the simulated projections, symmetry and reduction of number of voxels in the patient. In addition, considering a correction of high quality is 2 % error and less per implemented strategy, a simulation time of less than 2 minutes is obtained. For a low quality simulation (5% error and less per parameter), a simulation time of less than 15 seconds per simulation was obtained. Those are clinically acceptable simulation times.
|
59 |
Immersive visualization of light and heat for biophilic arctic architectureTabatabaeifard, Seyed Amin 03 March 2025 (has links)
Cette thèse présente un cadre de visualisation immersif développé pour améliorer le bien-être des occupants dans les environnements bâtis de l'Arctique. La thèse préconise la biophilie dans les espaces arctiques par la visualisation des ambiances intérieures et le ratio d'accès à la vue extérieure dans le champ de vision de 360°. En outre, elle contribue au bien-être photobiologique en incorporant des techniques basées sur l'image pour analyser les conditions d'éclairage intégratives, tout en tenant compte de la distribution de la température sur les surfaces intérieures. Grâce au développement d'un processus de capture holistique et à la présentation d'informations multivariantes dans des vues immersives à 360°, la thèse aborde l'accessibilité à l'éloignement des régions arctiques pour les explorations multidisciplinaires des ambiances intérieures. Elle sert les communautés arctiques en facilitant l'interprétation des effets environnementaux pour les architectes et les décideurs du monde entier grâce à une visualisation complète. Dans l'architecture Arctique, une approche biophilique de la conception des fenêtres se heurte à des difficultés liées à des considérations climatiques telles que des hivers extrêmement froids et prolongés et des photopériodes arctiques variées. Ces conditions climatiques contribuent à générer des effets complexes liés à la lumière et à la chaleur dans les espaces intérieurs. Ces attributs intérieurs non visibles comprennent les effets d'éclairage intégrés sur les occupants et les variations de température sur les surfaces intérieures. La représentation de ces effets non visibles permet d'éclairer la prise de décision pour développer une conception biophilique dans les environnements arctiques. Cependant, l'applicabilité de la représentation des conditions d'éclairage et de température basée sur la simulation est limitée dans de tels environnements, étant donné la variabilité des paramètres influençant la perception des ambiances par rapport aux références humaines et architecturales. En outre, la réalisation d'évaluations environnementales in-situ dans les espaces intérieurs de l'Arctique présente plusieurs défis. Il s'agit notamment de l'accessibilité et de la complexité des techniques de mesure standard et, plus important encore, de l'interprétabilité des résultats concernant les causes et les effets architecturaux et environnementaux. Cette thèse aborde ces limitations en élargissant une méthodologie compréhensive, établissant des représentations environnementales à travers des évaluations in-situ dans des directions de vision à 360°. L'adaptabilité de la méthodologie aux technologies de visualisation immersive, telles que la réalité virtuelle, et sa compatibilité avec les techniques d'évaluation de la relation humain-environnement la rendent très pertinente pour le domaine plus large de l'architecture et des sciences de l'environnement. Des applications visées en architecture au-delà de l'amélioration de l'éclairage, englobant des considérations liées au confort et à l'efficacité énergétique, en particulier dans les conditions climatiques extrêmes de l'Arctique. La thèse présente un système de capture économique conçu pour les environnements immersifs à 360°, qui fournit des informations sur l'éclairage intégré, la température de surface et le ratio de l'accès à une vue sur extérieur. Explorant les possibilités d'application des paramètres photobiologiques dans les normes de bâtiment et leur représentation par des mesures basées sur l'image, la méthodologie aborde l'accessibilité et l'aspect pratique de la représentation de conditions environnementales non visibles dans des espaces intérieurs de l'Arctique situés dans des régions éloignées. La recherche développe une visualisation immersive holistique de la lumière et de la chaleur basée sur l'image pour une architecture Arctique biophilique, soulignant la nature informative de la méthode proposée à des fins de recherche et de pédagogie. La thèse présente une nouvelle approche de la visualisation des environnements architecturaux en ce quiconcerne la direction de la vue, l'amélioration de la détection de l'éclairage favourable à la santé et l'information sur les conditions thermiques à l'intérieur des espaces en fonction de la temporalité. Dans les phases finales de la thèse, l'attention se porte sur l'évolution de la technique de capture immersive aspect du design en co-création avec les communautés éloignées. En outre, la thèse encourage la recherche future en menant des expériences qui explorent la pertinence de la méthode pour les évaluations dans un grand nombre d'espaces intérieurs. Elle ouvre la voie à des avancées dans l'évaluation environnementale post-occupation, en élargissant sa pertinence pour les rénovations biophiliques dans les contextes climatiques de l'Arctique. / This thesis introduces an immersive visualization framework designed to enhance the well-being of occupants in Arctic built environments. The thesis advocates for Biophilia in Arctic spaces through visualization of indoor ambiences, and the outdoor view access ratio within the 360° field of view. Additionally, it contributes to photobiological well-being by incorporating image-based techniques for analysing integrative lighting conditions, while considering temperature distributions on interior surfaces. Through the development of a holistic capturing process and the presentation of multivariant information in immersive 360° views, the thesis addresses accessibility to the remoteness of Arctic regions for multidisciplinary explorations of indoor ambiences. It serves Arctic communities by facilitating the interpretation of environmental effects for architects and decision-makers worldwide through comprehensive visualization. In Arctic architecture, a biophilic design approach in window design encounters challenges due to climate considerations such as prolonged extreme cold winters and diverse Arctic photoperiods. Such climate conditions contribute to complex effects related to light and heat experienced within indoor environments. These non-visible indoor attributes include integrative lighting effects on occupants, and temperature variation on interior surfaces. Representing these non-visible effects informs decision-making for developing a biophilic design in Arctic environments. However, the applicability of simulation-based representation of lighting and thermal conditions is limited in such environments, given the variability of parameters influencing the perception of ambiences in relation to human and architectural references. Additionally, conducting in-situ environmental assessments in Arctic interiors presents several challenges. These include the accessibility and complexity of standard measurement techniques, and, more importantly, the interpretability of results concerning the architectural and environmental causes and effects. This thesis addresses these limitations by developing a comprehensive methodology, establishing environmental representations through in-situ assessments in 360° viewing directions. The methodology's adaptability to immersive visualization technologies, such as virtual reality, and its compatibility with human-environment assessment techniques make it highly relevant to the broader field of architecture and environmental sciences. This extends beyond lighting enhancement, encompassing considerations related to comfort and energy efficiency, especially in critical environmental conditions of the Arctic. The thesis introduces a low-cost capturing system designed for 360° immersive environments, providing all-view-direction information regarding integrative lighting, surface temperature, and the ratio of view access to outdoors in 360 degrees. Exploring opportunities in the application of Photobiological thresholds in building standards and their representation through image-based measurements, the methodology addresses accessibility and practicality in representing non-visible ambiences in remote Arctic indoors. Underscoring the informative nature of the proposed method for research and pedagogic purposes, it offers a holistic image-based immersive visualization of light and heat for biophilic Arctic architecture. The thesis results in introducing a new approach in visualizing architectural environments regarding view direction, improving the detection of health-supportive lighting and informing thermal conditions within the spaces in daily timespan. In the concluding phases of this study, attention turns to the evolution of the immersive capturing technique as a key aspect. Additionally, the thesis propels future research by conducting experiments that probe into the method's suitability for evaluations across a large number of indoor spaces. It establishes pathways for advancements in post occupancy environmental assessment, expanding its relevance to biophilic retrofits in Arctic climate contexts.
|
60 |
Accélérateur à très basse latence d'un réseau de neurones sur FPGA pour simulations avec matériel dans la boucleBarnard, Christian 17 June 2024 (has links)
Ce mémoire présente les étapes qui ont mené à la conception et l'implémentation d'un accélérateur matériel d'un réseau de neurones qui sera chargé de la modélisation d'un environnement virtuel dans un simulateur de type "Hardware-in-the-Loop" (HIL). Ce module aura pour but d'offrir un environnement crédible à l'unité de contrôle électronique (ECU) testée sous la forme des signaux d'entrée requis par celle-ci. Cette crédibilité devra être reflétée autant au niveau de l'intégrité des prédictions qu'à celui de la latence de réponse aux actions de l'ECU. Ainsi, le modèle d'apprentissage machine sélectionné devra avoir une charge de calcul relativement légère à l'inférence. Puisque le système désiré devra posséder un haut niveau de portabilité et de réutilisabilité pour permettre l'intégration de différents ECU, le modèle devra être entraînable avec une quantité de données limitée. Suivant ces critères et restrictions, plusieurs architectures de réseaux de neurones furent initialement sélectionnées selon leur succès dans la littérature dans des contextes similaires à celui présenté. Les réseaux de type LSTM, GRU, TCN et NARX furent évalués et comparés sur une tâche de régression de séquences nécessitant la génération de signaux représentant les dynamiques d'un véhicule en freinage équipé d'un système ABS. Le modèle TCN fut capable de démontrer les meilleurs résultats sur la tâche en question comparativement aux autres réseaux. Une technique de régularisation utilisant la différentiation numérique des prédictions fut conçue et appliquée à l'entraînement du modèle afin de promouvoir la génération de signaux plus crédibles. Le réseau TCN fut finalement implémenté sur un accélérateur matériel utilisant les technologies FPGA afin de minimiser la latence des prédictions dans le système HIL. Le produit final permet d'offrir une prédiction du prochain état de l'environnement virtuel après 4.45 μs de latence. Cette valeur ne représente que l'inférence du modèle et omet la latence de communication et de conversion des signaux entre le module de prédiction et l'ECU testé. / This thesis presents the design and implementation of a hardware accelerator for a neural network that will be responsible for modeling a virtual environment in a Hardwarein- the-Loop simulator (HIL). This module aims to provide a credible environment to the electronic control unit (ECU) under test in the form of the input signals required by it. This credibility is reflected both in the integrity of the predictions and in the response latency to ECU actions. Thus, the selected machine learning model has a relatively light computational load at inference. Since the desired system possesses a high level of portability and reusability to allow the integration of different ECUs, the model remains trainable with limited data. Following these criteria and restrictions, several neural network architectures were initially selected according to their success in the literature in contexts similar to the one presented. LSTM, GRU, TCN and NARX architectures were evaluated and compared on a sequence regression task requiring generating signals representing the dynamics of a braking vehicle equipped with an ABS. The TCN model demonstrated the best results on the task in question compared to the other networks. A regularization technique using numerical differentiation of predictions was designed and applied to model training to promote the generation of more believable signals. The TCN network was finally implemented on a hardware accelerator using FPGA technologies to minimize the latency of the predictions in the HIL system. The final product makes it possible to offer a prediction of the next state of the virtual environment after 4.45 μs of latency. This value only represents the model inference and omits the communication and signal conversion latency between the prediction module and the ECU under test.
|
Page generated in 0.1421 seconds