• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 80
  • 19
  • 1
  • Tagged with
  • 100
  • 100
  • 50
  • 31
  • 28
  • 16
  • 12
  • 12
  • 10
  • 9
  • 9
  • 9
  • 8
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

The value of hydrological information in multireservoir systems operation

Pina Fulano, Jasson 21 September 2024 (has links)
La gestion optimale d’un système hydroélectrique composé de plusieurs réservoirs est un problème multi-étapes complexe de prise de décision impliquant, entre autres, (i) un compromis entre les conséquences immédiates et futures d’une décision, (ii) des risques et des incertitudes importantes, et (iii) de multiple objectifs et contraintes opérationnelles. Elle est souvent formulée comme un problème d’optimisation, mais il n’existe pas, à ce jour, de technique de référence même si la programmation dynamique (DP) a été souvent utilisée. La formulation stochastique de DP (SDP) permet la prise en compte explicite de l’incertitude entourant les apports hydrologiques futurs. Différentes approches ont été développées pour incorporer des informations hydrologiques et climatiques autres que les apports. Ces études ont révélé un potentiel d’amélioration des politiques de gestion proposées par les formulations SDP. Cependant, ces formulations sont applicables aux systèmes de petites tailles en raison de la célèbre « malédiction de la dimensionnalité ». La programmation dynamique stochastique duale (SDDP) est une extension de SDP développée dans les années 90. Elle est l’une des rares solutions algorithmiques utilisées pour déterminer les politiques de gestion des systèmes hydroélectriques de grande taille. Dans SDDP, l’incertitude hydrologique est capturée à l’aide d’un modèle autorégressif avec corrélation spatiale des résidus. Ce modèle analytique permet d’obtenir certains des paramètres nécessaires à l’implémentation de la technique d’optimisation. En pratique, les apports hydrologiques peuvent être influencés par d’autres variables observables, telles que l’équivalent de neige en eau et / ou la température de la surface des océans. La prise en compte de ces variables, appelées variables exogènes, permet de mieux décrire les processus hydrologiques et donc d’améliorer les politiques de gestion des réservoirs. L’objectif principal de ce doctorat est d’évaluer la valeur économique des politiques de gestion proposées par SDDP et ce pour diverses informations hydro-climatiques. En partant d’un modèle SDDP dans lequel la modélisation hydrologique est limitée aux processus Makoviens, la première activité de recherche a consisté à augmenter l’ordre du modèle autorégressif et à adapter la formulation SDDP. La seconde activité fut dédiée à l’incorporation de différentes variables hydrologiques exogènes dans l’algorithme SDDP. Le système hydroélectrique de Rio Tinto (RT) situé dans le bassin du fleuve Saguenay-Lac-Saint-Jean fut utilisé comme cas d’étude. Étant donné que ce système n’est pas capable de produire la totalité de l’énergie demandée par les fonderies pour assurer pleinement la production d’aluminium, le modèle SDDP a été modifié de manière à considérer les décisions de gestion des contrats avec Hydro Québec. Le résultat final est un système d’aide à la décision pour la gestion d’un large portefeuille d’actifs physiques et financiers en utilisant diverses informations hydro-climatiques. Les résultats globaux révèlent les gains de production d’énergie auxquels les opérateurs peuvent s’attendre lorsque d’autres variables hydrologiques sont incluses dans le vecteur des variables d’état de SDDP. / The optimal operation of a multireservoir hydroelectric system is a complex, multistage, stochastic decision-making problem involving, among others, (i) a trade-off between immediate and future consequences of a decision, (ii) considerable risks and uncertainties, and (iii) multiple objectives and operational constraints. The reservoir operation problem is often formulated as an optimization problem but not a single optimization approach/algorithm exists. Dynamic programming (DP) has been the most popular optimization technique applied to solve the optimization problem. The stochastic formulation of DP (SDP) can be performed by explicitly considering streamflow uncertainty in the DP recursive equation. Different approaches to incorporate more hydrologic and climatic information have been developed and have revealed the potential to enhance SDP- derived policies. However, all these techniques are limited to small-scale systems due to the so-called curse of dimensionality. Stochastic Dual Dynamic Programming (SDDP), an extension of the traditional SDP developed in the 90ies, is one of the few algorithmic solutions used to determine the operating policies of large-scale hydropower systems. In SDDP the hydrologic uncertainty is captured through a multi-site periodic autoregressive model. This analytical linear model is required to derive some of the parameters needed to implement the optimization technique. In practice, reservoir inflows can be affected by other observable variables, such snow water equivalent and/or sea surface temperature. These variables, called exogenous variables, can better describe the hydrologic processes, and therefore enhance reservoir operating policies. The main objective of this PhD is to assess the economic value of SDDP-derived operating policies in large-scale water systems using various hydro-climatic information. The first task focuses on the incorporation of the multi-lag autocorrelation of the hydrologic variables in the SDDP algorithm. Afterwards, the second task is devoted to the incorporation of different exogenous hydrologic variables. The hydroelectric system of Rio Tinto (RT) located in the Saguenay-Lac-Saint-Jean River Basin is used as case study. Since, RT’s hydropower system is not able to produce the entire amount of energy demanded at the smelters to fully assure the aluminum production, a portfolio of energy contacts with Hydro-Québec is available. Eventually, we end up with a decision support system for the management of a large portfolio of physical and financial assets using various hydro-climatic information. The overall results reveal the extent of the gains in energy production that the operators can expect as more hydrologic variables are included in the state-space vector.
52

Le transport intrahospitalier : conception et développement d'un modèle de simulation

Painchaud, Maxime 11 December 2024 (has links)
Afin de supporter les différentes activités au sein d’un centre hospitalier, le département de logistique est primordial pour offrir un service de qualité. Plus particulièrement, un service de brancarderie est nécessaire afin d’acheminer les patients non autonomes ou du matériel aux différentes unités de soins. La planification de ces activités de transport présente d’importants défis, car elle s’opère dans un environnement dynamique et imprévisible. En plus, l’aspect humain des transports apporte son lot de complication. Ce document traitera de la problématique du transport intrahospitalier au Centre Hospitalier Universitaire de Sherbrooke (CHUS). Cet établissement de santé coordonne ses activités de transports par le biais d’un système centralisé affectant des requêtes de transports aux différents brancardiers. L’outil de simulation va permettre de reproduire les flux à l’intérieur d’un établissement cible. Ensuite, le comportement du modèle de simulation sera mesuré et analysé lorsque des modifications au niveau des différents paramètres sont apportées.
53

L'empathie et la vidéoconférence en séances simulées de téléthérapie

Grondin, Frédéric 13 December 2023 (has links)
La téléthérapie, soit l'offre de soins en psychothérapie à l'aide de moyens de communication comme la vidéoconférence (VC), est une modalité de traitement de plus en plus utilisée. Bien que la recherche montre que cette modalité soit aussi efficace que les suivis en présentiel et qu'elle permette la création de l'alliance thérapeutique avec les clients, des préoccupations subsistent quant à la possibilité que l'empathie soit impactée dans les suivis de téléthérapie par VC. Les quelques données disponibles indiquent que l'empathie ressentie par les thérapeutes et perçue par les clients pourrait être moindre en VC qu'en présentiel, ce qui n'a pas encore été testé expérimentalement. Cet écart d'empathie proviendrait de la perte relative de certains indices non verbaux en VC, notamment du contact visuel. Considérant que l'empathie constitue un prédicteur de l'issue thérapeutique, il importe 1) d'élucider les mécanismes propres au contexte de VC qui influencent l'empathie, 2) de tester quantitativement la présence d'une différence d'empathie entre les séances en VC et celles en présentiel et 3) de développer des méthodes par lesquelles optimiser l'empathie en téléthérapie. Ces objectifs sont abordés par l'entremise des quatre chapitres de la thèse. Le premier chapitre aborde le développement d'un cadre conceptuel rendant compte de l'effet de filtre présent dans un contexte de communication virtuelle et du probable impact délétère de cet effet de filtre sur l'empathie en téléthérapie. Le chapitre 2, au moyen de deux études, montre que les niveaux d'empathie ressentie et perçue lors de séances simulées de thérapie sont moins élevés en VC qu'en présentiel. Le chapitre 2 identifie également que certains éléments de la téléprésence, soit l'impression pour les thérapeutes et les clients d'être ensemble durant l'appel en VC, corrèlent avec l'empathie rapportée par les thérapeutes et les clients. Les chapitres 3 et 4 investiguent l'effet du contact visuel sur l'empathie perçue en téléthérapie. Le chapitre 3 décrit d'abord le développement d'une méthodologie simple permettant de préserver la perception de contact visuel en diminuant l'angle de regard situé entre la caméra web et les yeux de l'interlocuteur sur l'écran d'ordinateur. Le chapitre 4 reprend cette méthodologie pour créer deux conditions expérimentales, avec ou sans contact visuel en VC. Les résultats montrent que, contrairement aux hypothèses initiales, le fait de pouvoir établir un contact visuel n'augmente pas les niveaux d'empathie et de téléprésence rapportés par les clients en séances simulées de téléthérapie. Des données d'oculométrie prélevées durant les séances montrent que les clients ne regardent pas davantage les yeux et le visage du thérapeute dans la condition avec contact visuel. Une association est toutefois observée entre le temps passé à regarder les yeux du thérapeute et l'empathie rapportée par les clients, mais seulement dans la condition avec contact visuel. Ces données indiquent ainsi que les clients sont en mesure de percevoir l'empathie en VC, que le contact visuel soit possible ou non. La thèse démontre que l'empathie peut être affectée en contexte de VC, mais également que les clients peuvent s'ajuster à l'altération de certains indices non verbaux lorsqu'ils jaugent l'empathie du thérapeute. Ces résultats sont encourageants vu l'usage grandissant de cette modalité de traitement en contexte de pandémie mondiale de COVID-19. / Teletherapy, defined as the use of a communication medium such as videoconference (VC) to conduct psychotherapy sessions at a distance, is increasingly used by therapists and clients. The use of teletherapy has seen a surge during the COVID-19 pandemic as a means to comply with the recommended social distancing measures. Though teletherapy has produced comparable outcomes to traditional, in-person therapy and is deemed a suitable modality for the establishment of therapeutic alliance, concerns remain over the possibility that empathy could be altered in teletherapy through VC. The available data, although limited, support the hypothesis that empathy could be lower in VC than in in-person sessions, but this has yet to be empirically tested. The relative loss of nonverbal cues in VC, such as the alteration of eye contact, could account for this potential discrepancy in empathy. There is therefore a need 1) to describe the influence of the VC medium on the mechanisms underlying empathy, 2) to quantitatively compare the levels of empathy in VC sessions to those in in-person sessions, and 3) to design a procedure to enhance empathy in VC sessions. These objectives are addressed in the four chapters of this thesis. The first chapter consists in the elaboration of a conceptual framework of online empathy. The conceptual framework describes the filter effect induced by online environments on nonverbal signals and its potential adverse influence on empathy in VC. Chapter 2 describes a study showing a decrease in empathy reported by therapists and clients taking part in simulated clinical sessions in VC and in-person settings. The results also reveal a significant correlation between empathy and telepresence, a term that relates to the impression for clients and therapists of being there, together in a VC interaction. The studies described in Chapters 3 and 4 aim at identifying the impact of eye contact on perceived empathy in teletherapy. Chapter 3 first describes the development of a simple methodology that facilitates eye contact in VC by decreasing the gaze angle between the webcam and the eyes of the other interactant on the screen. This methodology is employed in the experiment described in Chapter 4 to either allow or prevent eye contact from the clients' perspective during simulations of clinical sessions. The results show that, contrary to the hypothesis, facilitating eye contact in VC does not lead to higher levels of empathy and telepresence. Eye tracking data collected during the sessions showed that clients did not look more at the eyes and the face of therapists when eye contact was facilitated. However, a significant, positive correlation was observed between the time spent looking into the eyes of the therapist and the levels of empathy reported, but only in the sessions where eye contact was facilitated. These results show that clients can perceive empathy in VC, whether eye contact is altered or not. Overall, the findings of the thesis demonstrate that empathy can be altered in VC sessions but also highlight the capacity of clients to adapt to the alteration of nonverbal signals when assessing therapist empathy.
54

Prévision de la demande d'essence au Canada

Guelmbaye, Ngarsandje 23 April 2018 (has links)
Ce mémoire compare le pouvoir prédictif de 6 modèles de demande d’essence au Canada. Le modèle de tendance linéaire, le modèle à tendance quadratique, le modèle à tendance exponentielle, le modèle d’ajustement partiel ainsi que deux modèles basés sur l’approche Box-Jenkins ont été évalués. Le modèle d’ajustement partiel permet de montrer que la demande d’essence est inélastique par rapport au revenu ainsi qu’au prix. Toutefois, l’élasticité-revenu est plus forte que l’élasticité prix. Sur base de cette analyse, il est prévu qu’en 2020, au quatrième trimestre, la demande d’essence par habitant au Canada augmentera de moins d’un pourcent relativement au quatrième trimestre 2009.
55

Prédire le temps de trajet à l'aide des méthodes d'apprentissage profond

Lassakeur, Imad Eddine 07 June 2024 (has links)
Avec l'urbanisation croissante et l'augmentation des flux de trafic, les villes font face à des défis majeurs de congestion, de pollution, et de réduction de la qualité de vie. Comprendre et prédire les durées de trajet devient donc essentiel pour optimiser la mobilité urbaine et améliorer l'expérience quotidienne des citadins. Dans ce projet, nous avons adapté et expérimenté une méthode novatrice pour la prédiction des temps de trajet, combinant l'apprentissage automatique avec une analyse approfondie des données de circulation. Notre étude a débuté par un état de l'art des méthodes existantes, passant des modèles empiriques aux techniques d'intelligence artificielle avancées, et a mis en évidence les avantages des modèles hybrides. Nous avons conçu un processus détaillé qui commence par la collecte de données diverses, y compris des historiques de trafic, des informations structurelles des routes, et des conditions météorologiques. Ces données ont été traitées et analysées par segments pour souligner la nécessité d'approches localisées dans la prédiction. Notre application pratique sur le terrain urbain complexe de la ville de Québec a utilisé des données issues de Google Maps, OpenStreetMaps et WeatherEnvironment. Elle a prouvé l'efficacité d'un modèle hybride combinant des réseaux de neurones récurrents (GRU) et XGBoost. Ce modèle a démontré des performances supérieures par rapport aux méthodes traditionnelles, offrant des prédictions de temps de trajet plus précises et fiables. Les résultats ont également validé l'importance de l'analyse segmentée des parcours et la pertinence de sélectionner des caractéristiques influentes. Cette recherche contribue significativement au domaine de la gestion de la mobilité urbaine, ouvrant des perspectives pour l'optimisation des systèmes de navigation intelligents et la planification efficace du trafic. L'extension de cette méthodologie à d'autres contextes urbains et l'intégration de données en temps réel offrent des avenues prometteuses pour des recherches futures, visant à rendre nos villes plus intelligentes, durables et agréables pour leurs résidents. / With increasing urbanization and rising traffic flows, cities face major challenges including congestion, pollution, and reduced quality of life. Understanding and predicting travel times is thus crucial for optimizing urban mobility and enhancing the daily experience of city dwellers. In this project, we adapted and experimented with an innovative method for predicting travel times, combining machine learning with a thorough analysis of traffic data. Our study began with a state-of-the-art review of existing methods, ranging from empirical models to advanced artificial intelligence techniques, highlighting the benefits of hybrid models. We designed a detailed process starting with the collection of various data, including traffic history, road structural information, and weather conditions. These data were processed and analyzed by segments to underscore the need for localized approaches in prediction. Our practical application in the complex urban terrain of Quebec City used data from Google Maps, OpenStreetMaps, and WeatherEnvironment. It proved the effectiveness of a hybrid model combining recurrent neural networks (GRU) and XGBoost. This model demonstrated superior performance compared to traditional methods, providing more accurate and reliable travel time predictions. The results also validated the importance of segmented analysis of routes and the relevance of selecting influential features. This research significantly contributes to the field of urban mobility management, opening perspectives for optimizing intelligent navigation systems and efficient traffic planning. Extending this methodology to other urban contexts and integrating real-time data offers promising avenues for future research aimed at making our cities smarter, more sustainable, and more enjoyable for their residents.
56

Gestion des systèmes automatisés d'entreposage : simulation, optimisation et résultats empiriques

Gagliardi, Jean-Philippe 18 April 2018 (has links)
Les systèmes automatisés d'entreposage {Automated Storage and Retrieval Systems- AS/RS) sont considérés aujourd'hui comme une technologie de pointe dans le domaine de l'entreposage et de la distribution à haut débit. L'implantation d'un tel système représente un investissement corporatif majeur, il est donc attendu que son niveau de performance soit élevé. Ce niveau de performance, pour un environnement donné, est le résultat d'un ensemble de décisions relatives à la fois au design et au contrôle du système. Pour cette raison, tant aux niveaux industriel qu'académique, on cherche à développer des approches permettant de modéliser, concevoir et contrôler au mieux ces systèmes qui jouent un rôle critique dans les chaînes logistiques modernes. À cette fin, plusieurs approches issues de la recherche opérationnelle peuvent être appliquées. Cette thèse comporte quatre articles, présentant chacun un aspect distinct de l'étude des AS/RS. Nous présentons, dans le premier article, une revue de littérature traitant des approches de modélisation des AS/RS. L'étude met l'accent sur les hypothèses de modélisation employées dans les différents articles et qui ne sont pas toujours intuitives, ni même mentionnées. Cette réalité fait en sorte qu'il est parfois très difficile d'exploiter les résultats de recherches précédentes afin de les transposer dans un autre contexte. En plus d'isoler les hypothèses de modélisation, nous présentons une structure séparant les différentes questions de recherche en fonction des problèmes étudiés. Les résultats de cette revue prennent la forme d'une synthèse permettant d'associer, pour un problème donné, les études et résultats provenant de contextes similaires. Nous proposons dans le second article un modèle de simulation à événements discrets conçu pour étudier les AS/RS à charge unitaire. En prenant appui sur la programmation orientée-objet, le modèle a été conçu de manière à pouvoir aisément modéliser plusieurs configurations, comme par exemple les systèmes à plusieurs allées ou les AS/RS visant à gérer la collecte de petits items dans des contenants. Une description détaillée du moteur de simulation est donnée. C'est grâce à ce modèle que les chapitres subséquents ont pu voir le jour, en permettant l'étude empirique de ces systèmes hautement complexes et dynamiques. Dans le troisième article, nous présentons une étude sur le problème de gestion de l'espace dans les AS/RS. Ce problème consiste à définir, pour chaque localisation de stockage, le ou les produits pouvant y être stockés. Nous nous intéressons principalement à l'étude de l'entreposage par zones dont le nombre peut varier entre une seule zone et autant de zones qu'il y a de produits. La gestion de l'espace a suscité beaucoup d'intérêt scientifique vers la fin des années 70. Plusieurs modèles analytiques ont été formulés, résultant en certaines conclusions largement acceptées dans tous les milieux. Cependant, nous constatons que la validité de ces modèles analytiques repose sur certaines hypothèses restrictives. À l'aide du modèle de simulation présenté, nous montrons que ces conclusions ne tiennent plus lorsque nous nous transposons dans un contexte réaliste. Ce nouveau résultat nous amène à voir la gestion de l'espace en fonction des caractéristiques des produits entreposés. Dans le quatrième article, nous portons notre attention sur le problème de séquencement des requêtes dans un AS/RS. Le séquencement des requêtes consiste à définir l'ordre dans lequel les requêtes de stockage et de collecte seront complétées selon un horizon à durée déterminée, dans un objectif de minimisation du temps de cycle moyen. Cela revient à maximiser le rendement du système. Pour ce faire, nous proposons une adaptation des heuristiques de la littérature pour traiter le cas de séquencement dynamique, puis nous proposons une des premières formulations mathématiques au problème. Par la suite, nous évaluons les opérations du système à l'aide du modèle de simulation détaillé dans le deuxième article. Les résultats empiriques obtenus illustrent l'effet positif du séquencement sur la performance du système en plus de fournir une comparaison des différentes approches de séquencement étudiées. À travers ces quatre chapitres, nous démontrons que la simulation et l'optimisation des systèmes automatisés d'entreposage posent plusieurs défis. Nous avons présenté un modèle de simulation robuste qui a permis de faire avancer les connaissances dans le domaine de la gestion de l'espace et du séquencement des requêtes.
57

Amélioration de l'efficacité énergétique d'un circuit de broyage à rouleaux à haute pression par la commande prédictive économique

Thivierge, Alex 13 December 2023 (has links)
Le traitement du minerai s'effectue en deux étapes : la comminution et la séparation des particules. La première comprend le broyage, un procédé très énergivore. Celui-ci consomme près de la moitié de l'énergie des sites miniers. Il a déjà été démontré que remplacer le broyeur primaire conventionnel par le broyeur à rouleaux à haute pression (HPGR) permettait de diminuer la consommation énergétique des usines. Ceci s'explique en raison de son mécanisme de fragmentation. Contrairement aux broyeurs conventionnels qui brisent les particules par impacts et attrition, le HPGR fait appel à la compression, plus efficace énergétiquement. Remplacer les systèmes de contrôle du statu quo par la commande prédictive économique (EMPC) pourrait réduire davantage la consommation énergétique des usines avec HPGR, car celle-ci considère le coût énergétique dans sa fonction objectif. Jusqu'à maintenant, ce scénario n'a pas été étudié. Cette recherche comble cette lacune. La mener à terme a nécessité de programmer des simulateurs de HPGR et de flottation. Le corpus contient déjà plusieurs modèles de HPGR, mais la majorité de ceux-ci présume que les fragments de minerai ne glissent pas dans l'espacement entre les rouleaux, une hypothèse qui n'avait pas été vérifiée. Les objectifs de la recherche sont donc : 1. de vérifier l'hypothèse d'absence de glissement du minerai dans l'espacement des rouleaux du HPGR ; 2. de développer un simulateur de HPGR permettant d'étudier le contrôle de procédé à l'échelle de l'usine ; 3. de modéliser mathématiquement la performance de flottation aux caractéristiques du produit de broyage et 4. de quantifier l'impact économique et énergétique de la commande prédictive économique à l'échelle globale à partir d'une étude de cas par simulation. Ces travaux invalident plusieurs modèles de HPGR en démontrant, à l'aide d'un bilan de matière, que le glissement se produit pour un jeu de données. Concevoir un observateur a permis de quantifier la vitesse de glissement. Celui-ci est basé sur des bilans de force, de matière et d'énergie. Il fait appel au critère de friction de Coulomb et à d'autres relations empiriques. Cette thèse présente ensuite le développement d'un modèle de HPGR ne faisant aucune hypothèse restrictive sur le glissement. Ce modèle suppose un écoulement piston divisé en plusieurs zones le long des rouleaux. Il comprend quatre sous-modèles : 1. espacement entre les rouleaux - fonction empirique de la force spécifique ; 2. débit massique du produit - équation de continuité améliorée d'un facteur de correction ; 3. puissance soutirée - fonction de l'angle d'application de la force de broyage et 4. distribution granulométrique du produit - approche populationnelle cumulative résolue dans le domaine énergétique. Son calibrage pour 18 jeux de données a permis d'évaluer sa validité. Le manuscrit continue avec la proposition d'un modèle empirique de la constante cinétique de flottation en fonction de la taille et de la composition des particules. En reliant le simulateur de broyage aux performances de flottation, il permet la réalisation de l'étude de contrôle de procédé à l'échelle de l'usine. Celle-ci s'accomplit en comparant l'efficacité énergétique et la performance économique des réponses de plusieurs systèmes de contrôle à une séquence donnée de perturbations. Les résultats principaux sont énumérés ci-après. 1. Comparativement à une stratégie de contrôle de procédés qui maintient le débit de minerai frais alimenté constant, un système qui manipule cette variable consomme moins d'énergie spécifique et produit une performance économique supérieure malgré une détérioration du rendement métal. 2. Une stratégie basée sur des contrôleurs de type proportionnel-intégral (PI) décentralisés permet d'obtenir la même performance économique que la EMPC, car l'optimum économique se situe au point de rencontre de contraintes d'opération du système. 3. La EMPC peut accroitre l'efficacité énergétique si son critère contient une composante pénalisant la puissance soutirée explicitement, mais au prix d'une diminution de la performance économique. En somme, la recherche montre qu'une stratégie de commande multivariable judicieuse mène à des performances économiques et énergétiques supérieures comparativement à une stratégie de commande de base pour une usine avec HPGR. Des performances équivalentes peuvent toutefois être obtenues autant avec une EMPC qu'avec une stratégie décentralisée faisant appel à des régulateurs PI. / Mineral processing comprises two steps : comminution and separation of the particles. The first one includes grinding, an energy-inefficient process consuming about half the energy of mine sites. It was previously demonstrated that replacing conventional grinding technologies by high-pressure grinding rolls (HPGR) reduces the specific energy consumption of mineral processing plants. The different breakage mechanisms explain these results. In contrast to conventional grinding mills that break particles by impact and attrition, the HPGR fragments them by compression, which exhibits higher energy efficiency. Replacing current process control systems with economic model predictive control (EMPC) could further reduce the energy consumption of HPGR grinding circuits since it considers the energy cost within its objective function. This solution remains unexplored as of now. This work aims at filling this gap. Doing so requires programming HPGR and flotation simulators. The literature already contains several HPGR models. Most of them, however, assume the ore does not slip against the surface of the rolls even though this assumption has yet to be validated. This research therefore aims: 1. to verify whether the ore fragments may slip or not in the HPGR working gap; 2. to develop an HPGR simulator enabling the study of plant-wide process control; 3. to model mathematically the flotation response to the grinding product characteristics, and 4. to quantify the performance of plant-wide EMPC in a simulated case study using specific energy consumption and the product net value as metrics. The results invalidate several HPGR models by showing, through a mass balance, that the ore fragments slip in the HPGR working gap for a data set. Developing an observer allowed quantifying the speed at which they do. It makes use of force, mass, and energy balances, the Coulomb friction criterion, and other empirical models. This thesis then presents a novel HPGR model that makes no restricting hypothesis regarding slip. It considers several parallel plug flow reactors along the length of the rolls. It comprises four sub-models: 1. working gap - empirical function of the specific force; 2. product mass flow rate - continuity equation improved with a correction factor; 3. power draw - function of the grinding force application angle, and 4. product particle size distribution - cumulative population balance model solved in the energy domain. Calibrating the model on 18 data sets allowed evaluating its validity. The manuscript follows with the proposal of an empirical model for the flotation kinetic constant as a function of the particle size and composition. It therefore links the flotation process performance to the grinding circuit, in turn allowing the plant-wide process control study to take place. To do so, the simulator introduces a given disturbance sequence to different control strategies. It makes use of energy efficiency and product hourly net value as comparison metrics. The main results are listed thereafter. 1. In contrast to a control system maintaining constant feed rate, a system that manipulates this variable consumes less specific energy and generates more profits even though the metal recovery decreases. 2. A control strategy based on decentralized proportional-integral (PI) controllers allows generating the same economic output as the EMPC because the system's constraints define the economic optimum. 3. EMPC can reduce the grinding circuit specific energy consumption by including a penalty for HPGR power draw in the objective function, albeit at the cost of a lower economic performance. Overall, the research shows that a well-designed multivariable control system results in higher economic performance and energy efficiency in comparison to a basic regulatory control system for a plant comprising HPGR grinding. This being said, both EMPC and PI-based decentralized regulatory control produce equivalent performances. / Thèse ou mémoire avec insertion d'articles.
58

Développement d'un outil de simulation par Monte Carlo du rayonnement diffusé en tomodensitométrie

Saucier, Marie Annie 04 January 2025 (has links)
L’objectif de ce projet est de créer un programme logiciel permettant de corriger le rayonnement diffusé dans une acquisition tomodensitométrique à géométrie conique. Pour ce faire, une simulation Monte Carlo est utilisée pour estimer le rayonnement diffusé, ce qui consiste à reproduire numériquement un examen en tomodensitométrie. Ce projet a été divisé en deux sections : la validation de la physique pour ce programme spécifique et le développement logiciel du programme. La validation consistait à reproduire les résultats obtenus avec Geant4 avec GPUMCD. Geant4, la plateforme de référence, et GPUMCD, la plateforme à l’étude, sont deux librairies logicielles pour la simulation numérique du transport de particules à travers la matière utilisant les calculs Monte Carlo. Les éléments étudiés sont les sections efficaces, les matériaux, l’algorithme de diffusion Rayleigh et l’algorithme de diffusion Compton. Bien que quelques erreurs persistent dans la physique de GPUMCD, une nette amélioration des résultats entre GPUMCD et Geant4 a été obtenue. La différence entre les deux simulations qui était supérieure à 100% pour une géométrie complexe est passée sous la barre du 10%. De plus, il a été possible d’identifier quelques autres causes telles qu’une différence dans la définition des modèles physiques, et ce, plus précisément dans l’algorithme de diffusion Compton. En ce qui concerne la seconde partie du projet, bien que la correction n’a pu être effectuée pour une reconstruction, tous les éléments ont été implémentés pour estimer le rayonnement diffusé pour une géométrie de patient provenant de données cliniques d’une reconstruction tomodensitométrique. Les paramètres et les stratégies étudiés dans le but d’optimiser le temps de calculs tout en conservant la justesse des résultats sont : le traçage de rayons, le lissage gaussien du rayonnement diffusé, la réduction du nombre de pixels sur le détecteur, l’interpolation des projections, la symétrie et la réduction de nombre de voxels dans le patient. De plus, en considérant une correction de haute qualité, soit 2% d’erreur et moins par stratégie implémentée, on obtient un temps de simulation de moins de 2 minutes sur une GPU Nvidia Titan X. Pour une simulation dite de basse qualité, soit 5% d’erreur et moins par stratégie implémentée, on obtient un temps d’exécution de moins de 15 s par simulation. Cela correspond à des temps cliniquement acceptables si le patient doit attendre sur la table. / The goal of this project is to develop an application to correct the scattered radiation in a cone beam computed tomography scan (CBCT). A Monte Carlo simulation is used to estimate the scattered radiation which is a numerical replication of a CBCT acquisition. This project has been divided into two sections : the validation of the physics for this specific application and the development of the application. The validation consisted in reproducing the results obtained with Geant4 in GPUMCD. Geant4 is the reference platform and GPUMCD is the platform studied. Both are Monte Carlo simulators of the passage of particles through matter.The elements studied are the cross sections, the materials, the Rayleigh scattering algorithm and the Compton scattering algorithm. Although some errors are still present, a great improvement of the results between GPUMCD and Geant4 was obtained. The difference between the two simulations was greater than 100 % for complex geometries and dropped below 10% after corrections of the physics. In addition, it was possible to identify some other problems such as a theoretical difference in the Compton scattering algorithms. Regarding the second part of the project, although the correction could not be implemented in a reconstruction, all elements are present to estimate the scattered radiation for an actual CBCT reconstruction. The parameters and strategies studied in order to optimize the computation time while maintaining the accuracy of the results are : ray tracing, Gaussian smoothing of scattered radiation, reduction of the number of pixels on the detector, interpolation of between the simulated projections, symmetry and reduction of number of voxels in the patient. In addition, considering a correction of high quality is 2 % error and less per implemented strategy, a simulation time of less than 2 minutes is obtained. For a low quality simulation (5% error and less per parameter), a simulation time of less than 15 seconds per simulation was obtained. Those are clinically acceptable simulation times.
59

Habilitation des technologies pour l'électricité décarbonée, numérisée et décentralisée par l'utilisation de la co-simulation stochastique de systèmes de distribution et de clients intégrés à grande échelle

Salinas Herrera, Kleber Fernando 04 June 2024 (has links)
La transition énergétique mondiale en cours incite à l'exploration et au développement d'approches holistiques incluant la modélisation et la simulation des ressources énergétiques distribuées (RED) et des charges flexibles modernes de manière intégrée, tout en évaluant leurs impacts sur le réseau de distribution. Avec le déploiement croissant de ces technologies dites vertes ces dernières décennies, caractérisées principalement par des dispositifs intelligents et un marché énergétique transactionnel en croissance, le système énergétique a acquis une dynamique significative, en particulier du côté de la distribution. Le comportement des consommateurs intelligents et la variabilité des RED changent radicalement les paradigmes traditionnels de planification et d'opération. Cette recherche contribue au domaine de la co-simulation distribution et client (D&C) en introduisant FlexSimNet, une plateforme de simulation innovante open-source, construite autour des technologies de flexibilité et des ressources énergétiques distribuées qui seront cruciales pour fournir de l'électricité Décarbonée, Numérisée et Décentralisée (3D) de manière rentable pour permettre l'émergence de systèmes énergétiques plus verts. FlexSimNet est une plateforme de simulation multi-sectorielle conçue comme un repère pour la recherche et l'analyse de systèmes de distribution et de clients intégrés à grande échelle. FlexSimNet est développé dans un environnement Python et utilise des solveurs de systèmes tels qu'OpenDSS et EnergyPlus en co-simulation. Il comprend plusieurs modules, chacun exécutant des fonctions spécifiques avec des entrées et des sorties distinctes, et conçu pour offrir une flexibilité dans le contrôle de l'opération des charges flexibles et des RED. Ces modules incluent : - Un outil Générique Tierme-Series Pow Flow (GTSPF), qui tire parti d'OpenDSS et de Python pour la simulation dynamique des réseaux de distribution, qui est également intégré à la plateforme d'Énergie Transactionnelle ETSim, permettant un examen détaillé des échanges d'énergie transactionnelle et de leur impact sur les opérations et l'efficacité du réseau. - Un module de Modélisation de l'Énergie Domestique qui utilise EnergyPlus pour une modélisation précise de l'énergie des bâtiments, facilitant une analyse plus approfondie des modèles de consommation tels que les niveaux de confort et leur influence sur le système énergétique global. - La mise en œuvre de simulation de Monte Carlo pour explorer la nature stochastique de la charge et de la décharge des VE, fournissant des aperçus sur la flexibilité et les défis posés par une forte pénétration des VE. - Et, l'application de techniques d'apprentissage machine pour la prévision précise de l'irradiance solaire et de la température, démontrant le potentiel des approches basées sur les données pour améliorer la précision prédictive. Le potentiel et les capacités de FlexSimNet sont évalués de manière approfondie à travers une variété de scénarios et de configurations de simulation. Les résultats confirment l'efficacité et la fiabilité de la plateforme comme cadre robuste pour simuler les interactions entre les RED, les charges flexibles et les réseaux de distribution, offrant un nouveau repère pour l'analyse techno-économique. Les simulations démontrent la complexité supplémentaire introduite dans le réseau par la haute pénétration des ressources énergétiques distribuées et des charges flexibles. Bien que ces ressources offrent des avantages tels que l'intégration des énergies renouvelables et les services de soutien potentiels au réseau, elles défient également l'efficacité du réseau. Cela souligne l'importance d'optimiser l'opération et la coordination de ces ressources au sein du réseau de distribution pour exploiter pleinement leurs avantages tout en maintenant ou en améliorant la performance du réseau. Cela impose également des défis pour la stabilité de la tension. La gestion de ces fluctuations devient cruciale, surtout à mesure que les niveaux de pénétration de ces technologies augmentent. Les opérateurs de système doivent employer des stratégies de régulation de tension avancées et exploiter la flexibilité de ces ressources énergétiques distribuées pour maintenir la stabilité du réseau. / The ongoing global energy transition urges the exploration and development of holistic approaches that include the modelling and simulation of distributed energy resources (DER) and modern flexible loads in an integrated manner while evaluating their impacts on the distribution network. With the increasing deployment of these so-called green technologies in recent decades, characterized primarily by smart devices and a growing transactional energy market, the power system has gained significant dynamism, especially on the distribution side. The behaviour of smart consumers and the variability of DER drastically change traditional planning and operational paradigms. This research contributes to the distribution and client (D&C) co-simulation field by introducing FlexSimNet, an innovative open-source simulation platform, built around flexibility technologies and distributed energy resources that will be crucial for delivering cost-effective Decarbonized, Digitized and Decentralized (3D) electricity to enable emerging greener energy systems. FlexSimNet is a multi-sector simulation platform designed as a benchmark for the research and analysis of large-scale integrated distribution and customer systems. FlexSimNet is developed in a Python environment and employs system solvers such as OpenDSS and EnergyPlus in co-simulation. It comprises several modules, each performing specific functions with distinct inputs and outputs, and designed to offer flexibility in controlling the operation of flexible loads and DER. These modules include: - A Generic Time-Series Power Flow (GTSPF) tool, which leverages OpenDSS and Python for dynamic simulation of distribution networks which is also integrated with the transactive energy ETSim platform, enabling detailed examination of transactive energy exchanges and their impact on network operations and efficiency. - A Home Energy Modelling module which utilizes EnergyPlus for accurate building energy modelling, facilitating a deeper analysis of consumption patterns such as comfort levels and their influence on the overall energy system. - The implementation of Monte Carlo simulations to explore the stochastic nature of EV charging and discharging, providing insights into the flexibility and challenges posed by high EV penetration. - And, the application of machine learning techniques for precise forecasting of solar irradiance and temperature, demonstrating the potential of data-driven approaches inenhancing predictive accuracy. FlexSimNet's potential and capabilities are thoroughly assessed through a variety of scenarios and simulation setups. The results confirm the platform's effectiveness and reliability as a robust framework for simulating the interactions between DER, flexible loads, and distribution networks, offering a new benchmark for techno-economic analysis. The simulations demonstrate the additional complexity introduced into the network by the high penetration of distributed energy resources and flexible loads. While these resources offer benefits such as renewable integration and potential grid support services, they also challenge network efficiency. This underscores the importance of optimizing the operation and coordination of these resources within the distribution network to harness their full benefits while maintaining or enhancing network performance. It also imposes challenges for voltage stability. Managing these fluctuations becomes crucial, especially as the penetration levels of such technologies grow. System operators need to employ advanced voltage regulation strategies and leverage the flexibility of these distributed energy resources to maintain grid stability.
60

Favoriser le développement d'une foresterie de précision avec l'intelligence artificielle : simuler la répartition spatiale des propriétés du sol, de la croissance radiale annuelle et des essences forestières en forêts boréale et tempérée

Sylvain, Jean-Daniel 08 January 2025 (has links)
La littérature récente met en lumière les risques associés aux changements climatiques, démontrant qu'ils pourraient affecter de manière irrémédiable le maintien, la résilience et la productivité des écosystèmes forestiers. Pour mieux comprendre et anticiper ces effets, il est impératif de développer des approches méthodologiques pour supporter l'acquisition de connaissance détaillées sur les dynamiques spatiales et temporelles de ces écosystèmes. Cette étude a permis de tester le potentiel des méthodes d'apprentissage supervisé et des algorithmes de vision par ordinateurs pour cartographier trois composantes importantes des écosystèmes forestiers : 1) les propriétés physico-chimiques des sols, 2) la croissance radiale annuelle des essences forestières en forêt boréale et tempérée et 3) la diversité des essences forestières et de l'occupation du sol. Nos résultats indiquent que les méthodes d'apprentissage supervisé, issues du domaine de l'intelligence artificielle, sont en mesure de soutenir une cartographie objective, précise et détaillée de la dynamique spatiale et temporelle de plusieurs caractéristiques des écosystèmes forestiers. Ils démontrent toutefois que : 1) les performances des modèles d'apprentissage supervisé sont tributaires de la qualité et de la représentativité des données utilisées pour l'entraînement des modèles, 2) les valeurs simulées sont susceptibles d'être biaisées et requièrent parfois l'usage d'une méthode de correction de biais et 3) qu'il est essentiel de revoir les méthodes d'échantillonnage actuellement utilisées pour assurer une représentation optimale de la diversité des écosystèmes forestiers et des conditions climatiques changeantes et minimiser l'occurrence de biais dans les valeurs simulées. Nos travaux démontrent également les bénéfices de la modélisation d'ensemble et de la correction de biais sur la performance des modèles. En effet, les valeurs simulées à partir de la modélisation d'ensemble présentent un pouvoir explicatif supérieur par rapport à la modélisation déterministe reposant sur un modèle unique. La modélisation d'ensemble offre un cadre méthodologique qui permet d'estimer l'incertitude associée aux valeurs prédites. La correction de biais permet par ailleurs de maximiser la linéarité et le rapport de la variance entre les valeurs simulées et observées, favorisant ainsi l'obtention de valeurs plus réalistes d'un point de vue physique. Le développement de méthodes de cartographie automatisée aura des retombées importantes pour la gestion forestière, puisque les cartes découlant de ces approches ont le potentiel de soutenir une meilleure compréhension des écosystèmes forestiers et conséquemment le développement de stratégies d'aménagement forestier durable. Bien que les méthodes développées dans la thèse présentent un fort potentiel opérationnel, leur mise en œuvre dans le contexte de l'administration publique pose de nombreux défis liés à l'intégration de ces technologies. Enfin, ces travaux sont novateurs, car ils ont généré des données géospatiales inédites sur le plan de la résolution spatiale et temporelle. Ces données permettent une analyse détaillée de la dynamique du couvert forestier, de l'influence des perturbations et des facteurs abiotiques dans le temps.

Page generated in 0.1485 seconds