Spelling suggestions: "subject:"deméthodes dde simulation."" "subject:"deméthodes dee simulation.""
21 |
Modélisation du chablis en pessières régulières et irrégulières : effet de la diversité structurale des pessières noires boréales sur la résistance et la susceptibilité au chablisBergeron, Carl 13 April 2018 (has links)
Des travaux ont permis d’évaluer la résistance et la susceptibilité au chablis de l’épinette noire (Picea mariana (Mill.) B.S.P.) en structure régulière et irrégulière. Des expériences de treuillage ont permis d’évaluer le moment de force critique afin de quantifier la résistance des arbres au renversement et au bris de tige. Différents modèles ont été ajustés aux données. Le moment de force critique est fonction de la masse de la tige dans tous le cas et influencée par la structure ou les ratios hauteur : diamètre dans certains cas. Ces résultats sur la résistance, de même que la modélisation de la cime et plusieurs autres ajustements, furent intégrés dans le modèle ForestGALES afin de quantifier la susceptibilité au chablis. La susceptibilité apparaît fort variable entre et au sein de chaque type de structure, mais l’espacement et le rapport hauteur : diamètre expliquent la majeure partie de la variabilité observée. / Works aimed to evaluate windthrow resistance and susceptibility for black spruce (Picea mariana (Mill.) B.S.P.) stands of regular and irregular structure are presented here. Performed tree pulling works permitted to evaluate the critical bending moment in order to quantify the resistance of trees to overturning and stem breakage. Different models where fitted to the data. The critical bending moment is function of stem weight in all cases and influenced by the structure type or the height:diameter ratio in some cases. These results on mechanical resistance, along with crown modelling results and other adjustments, were used in an adaptation of the ForestGALES model in order to quantify windthrow susceptibility. Susceptibility appears to be quite variable between compared stands, both between and within structure types, but average tree spacing and height:diameter ratio explain most of the observed variability.
|
22 |
Emergency response, the built environment and GPS signal quality: simulation and analysis of urban canyons in Quebec CityO'Hara, Casey 12 April 2018 (has links)
L’objectif général de cette recherche est de synthétiser les informations disponibles sur le développement d’un système d’urgence 9-1-1 pour les téléphones cellulaires dans le contexte nord américain. L’objectif spécifique du projet est de proposer une méthodologie qui détermine les conditions moyennes d’obstruction causée par les bâtiments qui nuisent à la qualité de la réception de signal GPS. Un modèle statistique de la qualité de signal GPS basé sur une campagne de mesures de réception des signaux GPS dans les arrondissements à caractère urbain dans la Ville de Québec (Canada) est employé pour simuler l’effet d’obstruction. Ces mesures ont montré une variabilité spatiale de la qualité de signal selon les conditions locales d’obstruction des édifices sur la voûte céleste. Une augmentation du pourcentage de ciel obstrué (effet de masque) a entraîné une augmentation de la probabilité de perte de signal GPS. Des cartes continues de la probabilité de perte de signal GPS ont été créés pour des feuillets de la Base de données topographiques de Québec au 1 : 20 000 en employant la technique d’interpolation spatiale par la méthode de la distance inverse pondérée (DIP). / The general objective of this investigation is to extract the most pertinent information currently available on developing an emergency 9-1-1 system for cellular phones in the North American context. The specific objective of this project is to propose a methodology for determining the average obstruction by buildings which affect GPS satellite signal quality. A statistical model of GPS signal quality based on a field measurement campaign in the urban districts of Quebec City (Canada) was used to simulate this phenomenon. The measurements demonstrated a spatial variation in signal quality according to the building obstruction over the local sky. An increase in the percent of obstructed sky led to an increase in the probability of losing GPS signal lock. Continuous maps of GPS signal loss probability were created for sheets of the Quebec topographic database at the 1:20,000 scale using the Inverse Distance Weighting technique of spatial interpolation (IDW).
|
23 |
Apprentissage autonome de réseaux de neurones pour le pilotage en temps réel des systèmes de production basé sur l'optimisation via simulationMouelhi-Chibani, Wiem 12 October 2009 (has links) (PDF)
Le pilotage en temps réel des systèmes de production nécessite de prendre des décisions complexes sur l'affectation des ressources ou le choix des tâches à réaliser. Compte tenu de l'importance de la pertinence des décisions pour la performance d'un atelier, le pilotage fait l'objet de travaux de recherche dont l'objectif est d'aider les preneurs de décision. En particulier, on ne sait pas évaluer les conséquences sur la performance d'une décision en temps réel car les bonnes performances résultent d'une séquence de décisions et non d'une seule. De ce fait, il est difficile d'établir quelle est la meilleure décision à prendre à un instant donné. Plusieurs auteurs ont utilisé la simulation pour apprendre des bonnes pratiques à l'aide d'approches d'apprentissage automatique, mais se sont heurtés à la difficulté d'obtenir des exemples ou des observations sur des décisions en temps réel, où la prise en compte des changements d'états est indispensable pour choisir des stratégies de production. Nous avons réussi à aborder ce problème en proposant une approche d'apprentissage à l'aide de réseaux de neurones, qui ne nécessite pas d'exemples, d'observations ni de connaissances d'experts préalables. Ce type d'apprentissage s'effectue par optimisation via simulation des paramètres du réseau de neurones par rapport à un objectif de performance du système. Il vise à extraire de façon autonome des connaissances sur la meilleure façon de décider d'un modèle de simulation. Nous montrons la faisablité et l'apport de notre approche sur deux exemples inspirés de la littérature
|
24 |
Contribution à l'étude numérique des écoulements turbulents inertes et réactifs stabilisés en aval d'un élargissement brusque symétriqueMartinez-Ramirez, Bernardo 22 December 2005 (has links) (PDF)
Ce travail est consacré à la simulation numérique des écoulements inertes et réactifs stabilisés en aval d'un élargissement brusque symétrique, alimenté par deux écoulements de canal pleinement développés d'air ou air+propane.<br />L'objectif est, d'une part, de tester sur une géométrie "simple", une modélisation de la combustion en écoulements turbulents et en régime de prémélange et, d'autre part, d'estimer le niveau de précision obtenue afin de pouvoir quantifier une éventuelle amélioration liée à l'utilisation de modèles plus sophistiqués. Le modèle de turbulence k-epsilon sous sa forme standard avec la loi de paroi, et le modèle de combustion du type PDF présumé, modèle CLE, ont été retenus pour nos simulations.<br />Une étude préliminaire du type KPP nous a permis de déduire les caractéristiques propagatives des zones de réactions moyennes à richesse constante, calculées sur la base du modèle de combustion retenu.<br />Dans ce travail, ont été simulés : trois écoulements inertes et trois écoulements réactifs à richesse constante pour nombres de Reynolds égaux à 25000, 50000 et 75000 et deux écoulements réactifs à richesse variable pour nombre de Reynolds 25000.<br />Concernant les écoulements inertes, on retrouve bien la dissymétrie observée expérimentalement des deux zones de recirculation moyennes. Pour les écoulements réactifs à richesse constante, on retrouve également la resymétrisation de l'écoulement moyen observée expérimentalement.<br />En revanche, la longueur des zones de recirculation moyenne est fortement sous-estimée par le calcul.<br />Un comportement auto-semblable dans la zone proche de l'élargissement est également retrouvé. Pour les écoulements à richesse variable, la perte de symétrie de l'écoulement moyen est bien retrouvée, mais les longueurs des zones de recirculation moyennes sont toujours sous-estimées par le calcul. Des indicateurs quantitatifs d'écart entre les résultats numériques et expérimentaux sont fournis pour les écoulements inertes et réactifs considérés, permettant à l'avenir, d'estimer le gain apporté par le recours à des simulations basées sur une évolution ou sur une amélioration de modèles physiques retenus de le cadre de cette étude.
|
25 |
L'empathie et la vidéoconférence en séances simulées de téléthérapieGrondin, Frédéric 30 August 2022 (has links)
La téléthérapie, soit l'offre de soins en psychothérapie à l'aide de moyens de communication comme la vidéoconférence (VC), est une modalité de traitement de plus en plus utilisée. Bien que la recherche montre que cette modalité soit aussi efficace que les suivis en présentiel et qu'elle permette la création de l'alliance thérapeutique avec les clients, des préoccupations subsistent quant à la possibilité que l'empathie soit impactée dans les suivis de téléthérapie par VC. Les quelques données disponibles indiquent que l'empathie ressentie par les thérapeutes et perçue par les clients pourrait être moindre en VC qu'en présentiel, ce qui n'a pas encore été testé expérimentalement. Cet écart d'empathie proviendrait de la perte relative de certains indices non verbaux en VC, notamment du contact visuel. Considérant que l'empathie constitue un prédicteur de l'issue thérapeutique, il importe 1) d'élucider les mécanismes propres au contexte de VC qui influencent l'empathie, 2) de tester quantitativement la présence d'une différence d'empathie entre les séances en VC et celles en présentiel et 3) de développer des méthodes par lesquelles optimiser l'empathie en téléthérapie. Ces objectifs sont abordés par l'entremise des quatre chapitres de la thèse. Le premier chapitre aborde le développement d'un cadre conceptuel rendant compte de l'effet de filtre présent dans un contexte de communication virtuelle et du probable impact délétère de cet effet de filtre sur l'empathie en téléthérapie. Le chapitre 2, au moyen de deux études, montre que les niveaux d'empathie ressentie et perçue lors de séances simulées de thérapie sont moins élevés en VC qu'en présentiel. Le chapitre 2 identifie également que certains éléments de la téléprésence, soit l'impression pour les thérapeutes et les clients d'être ensemble durant l'appel en VC, corrèlent avec l'empathie rapportée par les thérapeutes et les clients. Les chapitres 3 et 4 investiguent l'effet du contact visuel sur l'empathie perçue en téléthérapie. Le chapitre 3 décrit d'abord le développement d'une méthodologie simple permettant de préserver la perception de contact visuel en diminuant l'angle de regard situé entre la caméra web et les yeux de l'interlocuteur sur l'écran d'ordinateur. Le chapitre 4 reprend cette méthodologie pour créer deux conditions expérimentales, avec ou sans contact visuel en VC. Les résultats montrent que, contrairement aux hypothèses initiales, le fait de pouvoir établir un contact visuel n'augmente pas les niveaux d'empathie et de téléprésence rapportés par les clients en séances simulées de téléthérapie. Des données d'oculométrie prélevées durant les séances montrent que les clients ne regardent pas davantage les yeux et le visage du thérapeute dans la condition avec contact visuel. Une association est toutefois observée entre le temps passé à regarder les yeux du thérapeute et l'empathie rapportée par les clients, mais seulement dans la condition avec contact visuel. Ces données indiquent ainsi que les clients sont en mesure de percevoir l'empathie en VC, que le contact visuel soit possible ou non. La thèse démontre que l'empathie peut être affectée en contexte de VC, mais également que les clients peuvent s'ajuster à l'altération de certains indices non verbaux lorsqu'ils jaugent l'empathie du thérapeute. Ces résultats sont encourageants vu l'usage grandissant de cette modalité de traitement en contexte de pandémie mondiale de COVID-19. / Teletherapy, defined as the use of a communication medium such as videoconference (VC) to conduct psychotherapy sessions at a distance, is increasingly used by therapists and clients. The use of teletherapy has seen a surge during the COVID-19 pandemic as a means to comply with the recommended social distancing measures. Though teletherapy has produced comparable outcomes to traditional, in-person therapy and is deemed a suitable modality for the establishment of therapeutic alliance, concerns remain over the possibility that empathy could be altered in teletherapy through VC. The available data, although limited, support the hypothesis that empathy could be lower in VC than in in-person sessions, but this has yet to be empirically tested. The relative loss of nonverbal cues in VC, such as the alteration of eye contact, could account for this potential discrepancy in empathy. There is therefore a need 1) to describe the influence of the VC medium on the mechanisms underlying empathy, 2) to quantitatively compare the levels of empathy in VC sessions to those in in-person sessions, and 3) to design a procedure to enhance empathy in VC sessions. These objectives are addressed in the four chapters of this thesis. The first chapter consists in the elaboration of a conceptual framework of online empathy. The conceptual framework describes the filter effect induced by online environments on nonverbal signals and its potential adverse influence on empathy in VC. Chapter 2 describes a study showing a decrease in empathy reported by therapists and clients taking part in simulated clinical sessions in VC and in-person settings. The results also reveal a significant correlation between empathy and telepresence, a term that relates to the impression for clients and therapists of being there, together in a VC interaction. The studies described in Chapters 3 and 4 aim at identifying the impact of eye contact on perceived empathy in teletherapy. Chapter 3 first describes the development of a simple methodology that facilitates eye contact in VC by decreasing the gaze angle between the webcam and the eyes of the other interactant on the screen. This methodology is employed in the experiment described in Chapter 4 to either allow or prevent eye contact from the clients' perspective during simulations of clinical sessions. The results show that, contrary to the hypothesis, facilitating eye contact in VC does not lead to higher levels of empathy and telepresence. Eye tracking data collected during the sessions showed that clients did not look more at the eyes and the face of therapists when eye contact was facilitated. However, a significant, positive correlation was observed between the time spent looking into the eyes of the therapist and the levels of empathy reported, but only in the sessions where eye contact was facilitated. These results show that clients can perceive empathy in VC, whether eye contact is altered or not. Overall, the findings of the thesis demonstrate that empathy can be altered in VC sessions but also highlight the capacity of clients to adapt to the alteration of nonverbal signals when assessing therapist empathy.
|
26 |
Influence du vieillissement sur le contrôle visuo-locomoteur utilisé pour contourner un piéton approchant avec différents patrons de marcheFiset, Félix 30 August 2022 (has links)
L'objectif de ce mémoire est de mieux comprendre les informations utilisées par de jeunes adultes et des personnes âgées en santé relativement aux mouvements locomoteurs d’une autre personne pour la contourner dans un environnement représentatif de la marche en communauté. Pour ce faire, deux projets ont été réalisés dans un environnement virtuel représentant un centre commercial. Dans le premier projet (chapitre 2), dix jeunes adultes avaient comme consigne de se diriger vers un café situé devant eux et de contourner au besoin un piéton virtuel approchant avec différents patrons de marche : mouvements locomoteurs normaux; aucun mouvement des bras ; aucun mouvement des jambes ; aucun mouvement des bras et des jambes. Dans le deuxième projet (chapitre 3), 14 jeunes adultes et 14 personnes âgées ont été recrutés afin de réaliser une tâche similaire à la première étude, mais cette fois-ci, avec un piéton virtuel ayant une trajectoire de marche initialement imprévisible. La trajectoire de marche, le dégagement minimal, la vitesse de marche, les stratégies de réorientation du corps et les stratégies visuelles ont été étudiés. Des analyses non paramétriques de données longitudinales ont été utilisées pour comparer les variables entre les âges et les conditions. L’absence de mouvements des bras et des jambes d’un piéton se traduisait par une stratégie de contournement plus conservatrice tant chez les jeunes que chez les personnes âgées en augmentant les distances maintenues avec le piéton. Les personnes âgées avaient besoin de plus de temps pour traiter l’information, ce qui résultait en une déviation de trajectoire plus tardive et une attention visuelle davantage dirigée sur le piéton. Ces changements liés au vieillissement pourraient se traduire par un risque accru de chutes chez les populations âgées présentant des troubles d’équilibre et contribuer à limiter la marche dans la communauté. / The objective of this master's thesis was to better understand the information used by healthy young and older adults during circumvention depending on the locomotor movements of another pedestrian within an environment representative of community walking. To do this, two projects were carried out in a virtual environment representing a shopping mall. In the first project (Chapter 2), ten young adults were instructed towalk towards a coffee shop located in front of them and to circumvent an approaching virtual pedestrian with different locomotor movements: Normal locomotor movement; No arm movement; No leg movement; No armand leg movement. In the second project (Chapter 3), 14 young adults and 14 older adults were recruited to perform a task similar to the first study, but this time with a virtual pedestrian approaching with an initially unpredictable trajectory. Walking trajectory, minimum clearance, walking speed, body reorientation strategies and gaze behaviour were studied. Non parametric Analyses of Longitudinal Data were used to compare variables across the age groups and conditions. The absence of arm and leg movements from a pedestrian resulted in amore cautious strategy for both young and older adults by increasing the distances maintained with the pedestrian. The older adults needed more time to process visual information, which resulted in a later trajectory deviation and more visual attention directed to the pedestrian. These age-related changes could result in anincreased risk of falls in older adult populations with reduced balance and mobility and contribute to limiting community ambulation.
|
27 |
Simulating surface water and groundwater flow dynamics in tile-drained catchmentsSchepper, Guillaume de 23 April 2018 (has links)
Pratique agricole répandue dans les champs sujets à l’accumulation d’eau en surface, le drainage souterrain améliore la productivité des cultures et réduit les risques de stagnation d’eau. La contribution significative du drainage sur les bilans d’eau à l’échelle de bassins versants, et sur les problèmes de contamination dus à l’épandage d’engrais et de fertilisant, a régulièrement été soulignée. Les écoulements d’eau souterraine associés au drainage étant souvent inconnus, leur représentation par modélisation numérique reste un défi majeur. Avant de considérer le transport d’espèces chimiques ou de sédiments, il est essentiel de simuler correctement les écoulements d’eau souterraine en milieu drainé. Dans cette perspective, le modèle HydroGeoSphere a été appliqué à deux bassins versants agricoles drainés du Danemark. Un modèle de référence a été développé à l’échelle d’une parcelle dans le bassin versant de Lillebæk pour tester une série de concepts de drainage dans une zone drainée de 3.5 ha. Le but était de définir une méthode de modélisation adaptée aux réseaux de drainage complexes à grande échelle. Les simulations ont indiqué qu’une simplification du réseau de drainage ou que l’utilisation d’un milieu équivalent sont donc des options appropriées pour éviter les maillages hautement discrétisés. Le calage des modèles reste cependant nécessaire. Afin de simuler les variations saisonnières des écoulements de drainage, un modèle a ensuite été créé à l’échelle du bassin versant de Fensholt, couvrant 6 km2 et comprenant deux réseaux de drainage complexes. Ces derniers ont été simplifiés en gardant les drains collecteurs principaux, comme suggéré par l’étude de Lillebæk. Un calage du modèle par rapport aux débits de drainage a été réalisé : les dynamiques d’écoulement ont été correctement simulées, avec une faible erreur de volumes cumulatifs drainés par rapport aux observations. Le cas de Fensholt a permis de valider les conclusions des tests de Lillebæk, ces résultats ouvrant des perspectives de modélisation du drainage lié à des questions de transport. / Tile drainage is a common agricultural management practice in plots prone to ponding issues. Drainage enhances crop productivity and reduces waterlogging risks. Studies over the last few decades have highlighted the significant contribution of subsurface drainage to catchments water balance and contamination issues related to manure or fertilizer application at the soil surface. Groundwater flow patterns associated with drainage are often unknown and their representation in numerical models, although powerful analysis tools, is still a major challenge. Before considering chemical species or sediment transport, an accurate water flow simulation is essential. The integrated fully-coupled hydrological HydroGeoSphere code was applied to two highly tile-drained agricultural catchments of Denmark (Lillebæk and Fensholt) in the present work. A first model was developed at the field scale from the Lillebæk catchment. A reference model was set and various drainage concepts and boundary conditions were tested in a 3.5 ha tile-drained area to find a suitable option in terms of model performance and computing time for larger scale modeling of complex drainage networks. Simulations suggested that a simplification of the geometry of the drainage network or using an equivalent-medium layer are suitable options for avoiding highly discretized meshes, but further model calibration is required. A catchment scale model was subsequently built in Fensholt, covering 6 km2 and including two complex drainage networks. The aim was to perform a year-round simulation accounting for variations in seasonal drainage flow. Both networks were simplified with the main collecting drains kept in the model, as suggested by the Lillebæk study. Calibration against hourly measured drainage discharge data was performed resulting in a good model performance. Drainage flow and flow dynamics were accurately simulated, with low cumulative error in drainage volume. The Fensholt case validated the Lillebæk test conclusions, allowing for further drainage modeling linked with transport issues.
|
28 |
Gestion des systèmes automatisés d'entreposage : simulation, optimisation et résultats empiriquesGagliardi, Jean-Philippe 18 April 2018 (has links)
Les systèmes automatisés d'entreposage {Automated Storage and Retrieval Systems- AS/RS) sont considérés aujourd'hui comme une technologie de pointe dans le domaine de l'entreposage et de la distribution à haut débit. L'implantation d'un tel système représente un investissement corporatif majeur, il est donc attendu que son niveau de performance soit élevé. Ce niveau de performance, pour un environnement donné, est le résultat d'un ensemble de décisions relatives à la fois au design et au contrôle du système. Pour cette raison, tant aux niveaux industriel qu'académique, on cherche à développer des approches permettant de modéliser, concevoir et contrôler au mieux ces systèmes qui jouent un rôle critique dans les chaînes logistiques modernes. À cette fin, plusieurs approches issues de la recherche opérationnelle peuvent être appliquées. Cette thèse comporte quatre articles, présentant chacun un aspect distinct de l'étude des AS/RS. Nous présentons, dans le premier article, une revue de littérature traitant des approches de modélisation des AS/RS. L'étude met l'accent sur les hypothèses de modélisation employées dans les différents articles et qui ne sont pas toujours intuitives, ni même mentionnées. Cette réalité fait en sorte qu'il est parfois très difficile d'exploiter les résultats de recherches précédentes afin de les transposer dans un autre contexte. En plus d'isoler les hypothèses de modélisation, nous présentons une structure séparant les différentes questions de recherche en fonction des problèmes étudiés. Les résultats de cette revue prennent la forme d'une synthèse permettant d'associer, pour un problème donné, les études et résultats provenant de contextes similaires. Nous proposons dans le second article un modèle de simulation à événements discrets conçu pour étudier les AS/RS à charge unitaire. En prenant appui sur la programmation orientée-objet, le modèle a été conçu de manière à pouvoir aisément modéliser plusieurs configurations, comme par exemple les systèmes à plusieurs allées ou les AS/RS visant à gérer la collecte de petits items dans des contenants. Une description détaillée du moteur de simulation est donnée. C'est grâce à ce modèle que les chapitres subséquents ont pu voir le jour, en permettant l'étude empirique de ces systèmes hautement complexes et dynamiques. Dans le troisième article, nous présentons une étude sur le problème de gestion de l'espace dans les AS/RS. Ce problème consiste à définir, pour chaque localisation de stockage, le ou les produits pouvant y être stockés. Nous nous intéressons principalement à l'étude de l'entreposage par zones dont le nombre peut varier entre une seule zone et autant de zones qu'il y a de produits. La gestion de l'espace a suscité beaucoup d'intérêt scientifique vers la fin des années 70. Plusieurs modèles analytiques ont été formulés, résultant en certaines conclusions largement acceptées dans tous les milieux. Cependant, nous constatons que la validité de ces modèles analytiques repose sur certaines hypothèses restrictives. À l'aide du modèle de simulation présenté, nous montrons que ces conclusions ne tiennent plus lorsque nous nous transposons dans un contexte réaliste. Ce nouveau résultat nous amène à voir la gestion de l'espace en fonction des caractéristiques des produits entreposés. Dans le quatrième article, nous portons notre attention sur le problème de séquencement des requêtes dans un AS/RS. Le séquencement des requêtes consiste à définir l'ordre dans lequel les requêtes de stockage et de collecte seront complétées selon un horizon à durée déterminée, dans un objectif de minimisation du temps de cycle moyen. Cela revient à maximiser le rendement du système. Pour ce faire, nous proposons une adaptation des heuristiques de la littérature pour traiter le cas de séquencement dynamique, puis nous proposons une des premières formulations mathématiques au problème. Par la suite, nous évaluons les opérations du système à l'aide du modèle de simulation détaillé dans le deuxième article. Les résultats empiriques obtenus illustrent l'effet positif du séquencement sur la performance du système en plus de fournir une comparaison des différentes approches de séquencement étudiées. À travers ces quatre chapitres, nous démontrons que la simulation et l'optimisation des systèmes automatisés d'entreposage posent plusieurs défis. Nous avons présenté un modèle de simulation robuste qui a permis de faire avancer les connaissances dans le domaine de la gestion de l'espace et du séquencement des requêtes.
|
29 |
Amélioration de l'efficacité énergétique d'un circuit de broyage à rouleaux à haute pression par la commande prédictive économiqueThivierge, Alex 13 December 2023 (has links)
Le traitement du minerai s'effectue en deux étapes : la comminution et la séparation des particules. La première comprend le broyage, un procédé très énergivore. Celui-ci consomme près de la moitié de l'énergie des sites miniers. Il a déjà été démontré que remplacer le broyeur primaire conventionnel par le broyeur à rouleaux à haute pression (HPGR) permettait de diminuer la consommation énergétique des usines. Ceci s'explique en raison de son mécanisme de fragmentation. Contrairement aux broyeurs conventionnels qui brisent les particules par impacts et attrition, le HPGR fait appel à la compression, plus efficace énergétiquement. Remplacer les systèmes de contrôle du statu quo par la commande prédictive économique (EMPC) pourrait réduire davantage la consommation énergétique des usines avec HPGR, car celle-ci considère le coût énergétique dans sa fonction objectif. Jusqu'à maintenant, ce scénario n'a pas été étudié. Cette recherche comble cette lacune. La mener à terme a nécessité de programmer des simulateurs de HPGR et de flottation. Le corpus contient déjà plusieurs modèles de HPGR, mais la majorité de ceux-ci présume que les fragments de minerai ne glissent pas dans l'espacement entre les rouleaux, une hypothèse qui n'avait pas été vérifiée. Les objectifs de la recherche sont donc : 1. de vérifier l'hypothèse d'absence de glissement du minerai dans l'espacement des rouleaux du HPGR ; 2. de développer un simulateur de HPGR permettant d'étudier le contrôle de procédé à l'échelle de l'usine ; 3. de modéliser mathématiquement la performance de flottation aux caractéristiques du produit de broyage et 4. de quantifier l'impact économique et énergétique de la commande prédictive économique à l'échelle globale à partir d'une étude de cas par simulation. Ces travaux invalident plusieurs modèles de HPGR en démontrant, à l'aide d'un bilan de matière, que le glissement se produit pour un jeu de données. Concevoir un observateur a permis de quantifier la vitesse de glissement. Celui-ci est basé sur des bilans de force, de matière et d'énergie. Il fait appel au critère de friction de Coulomb et à d'autres relations empiriques. Cette thèse présente ensuite le développement d'un modèle de HPGR ne faisant aucune hypothèse restrictive sur le glissement. Ce modèle suppose un écoulement piston divisé en plusieurs zones le long des rouleaux. Il comprend quatre sous-modèles : 1. espacement entre les rouleaux - fonction empirique de la force spécifique ; 2. débit massique du produit - équation de continuité améliorée d'un facteur de correction ; 3. puissance soutirée - fonction de l'angle d'application de la force de broyage et 4. distribution granulométrique du produit - approche populationnelle cumulative résolue dans le domaine énergétique. Son calibrage pour 18 jeux de données a permis d'évaluer sa validité. Le manuscrit continue avec la proposition d'un modèle empirique de la constante cinétique de flottation en fonction de la taille et de la composition des particules. En reliant le simulateur de broyage aux performances de flottation, il permet la réalisation de l'étude de contrôle de procédé à l'échelle de l'usine. Celle-ci s'accomplit en comparant l'efficacité énergétique et la performance économique des réponses de plusieurs systèmes de contrôle à une séquence donnée de perturbations. Les résultats principaux sont énumérés ci-après. 1. Comparativement à une stratégie de contrôle de procédés qui maintient le débit de minerai frais alimenté constant, un système qui manipule cette variable consomme moins d'énergie spécifique et produit une performance économique supérieure malgré une détérioration du rendement métal. 2. Une stratégie basée sur des contrôleurs de type proportionnel-intégral (PI) décentralisés permet d'obtenir la même performance économique que la EMPC, car l'optimum économique se situe au point de rencontre de contraintes d'opération du système. 3. La EMPC peut accroitre l'efficacité énergétique si son critère contient une composante pénalisant la puissance soutirée explicitement, mais au prix d'une diminution de la performance économique. En somme, la recherche montre qu'une stratégie de commande multivariable judicieuse mène à des performances économiques et énergétiques supérieures comparativement à une stratégie de commande de base pour une usine avec HPGR. Des performances équivalentes peuvent toutefois être obtenues autant avec une EMPC qu'avec une stratégie décentralisée faisant appel à des régulateurs PI. / Mineral processing comprises two steps : comminution and separation of the particles. The first one includes grinding, an energy-inefficient process consuming about half the energy of mine sites. It was previously demonstrated that replacing conventional grinding technologies by high-pressure grinding rolls (HPGR) reduces the specific energy consumption of mineral processing plants. The different breakage mechanisms explain these results. In contrast to conventional grinding mills that break particles by impact and attrition, the HPGR fragments them by compression, which exhibits higher energy efficiency. Replacing current process control systems with economic model predictive control (EMPC) could further reduce the energy consumption of HPGR grinding circuits since it considers the energy cost within its objective function. This solution remains unexplored as of now. This work aims at filling this gap. Doing so requires programming HPGR and flotation simulators. The literature already contains several HPGR models. Most of them, however, assume the ore does not slip against the surface of the rolls even though this assumption has yet to be validated. This research therefore aims: 1. to verify whether the ore fragments may slip or not in the HPGR working gap; 2. to develop an HPGR simulator enabling the study of plant-wide process control; 3. to model mathematically the flotation response to the grinding product characteristics, and 4. to quantify the performance of plant-wide EMPC in a simulated case study using specific energy consumption and the product net value as metrics. The results invalidate several HPGR models by showing, through a mass balance, that the ore fragments slip in the HPGR working gap for a data set. Developing an observer allowed quantifying the speed at which they do. It makes use of force, mass, and energy balances, the Coulomb friction criterion, and other empirical models. This thesis then presents a novel HPGR model that makes no restricting hypothesis regarding slip. It considers several parallel plug flow reactors along the length of the rolls. It comprises four sub-models: 1. working gap - empirical function of the specific force; 2. product mass flow rate - continuity equation improved with a correction factor; 3. power draw - function of the grinding force application angle, and 4. product particle size distribution - cumulative population balance model solved in the energy domain. Calibrating the model on 18 data sets allowed evaluating its validity. The manuscript follows with the proposal of an empirical model for the flotation kinetic constant as a function of the particle size and composition. It therefore links the flotation process performance to the grinding circuit, in turn allowing the plant-wide process control study to take place. To do so, the simulator introduces a given disturbance sequence to different control strategies. It makes use of energy efficiency and product hourly net value as comparison metrics. The main results are listed thereafter. 1. In contrast to a control system maintaining constant feed rate, a system that manipulates this variable consumes less specific energy and generates more profits even though the metal recovery decreases. 2. A control strategy based on decentralized proportional-integral (PI) controllers allows generating the same economic output as the EMPC because the system's constraints define the economic optimum. 3. EMPC can reduce the grinding circuit specific energy consumption by including a penalty for HPGR power draw in the objective function, albeit at the cost of a lower economic performance. Overall, the research shows that a well-designed multivariable control system results in higher economic performance and energy efficiency in comparison to a basic regulatory control system for a plant comprising HPGR grinding. This being said, both EMPC and PI-based decentralized regulatory control produce equivalent performances. / Thèse ou mémoire avec insertion d'articles.
|
30 |
Habilitation des technologies pour l'électricité décarbonée, numérisée et décentralisée par l'utilisation de la co-simulation stochastique de systèmes de distribution et de clients intégrés à grande échelleSalinas Herrera, Kleber Fernando 04 June 2024 (has links)
La transition énergétique mondiale en cours incite à l'exploration et au développement d'approches holistiques incluant la modélisation et la simulation des ressources énergétiques distribuées (RED) et des charges flexibles modernes de manière intégrée, tout en évaluant leurs impacts sur le réseau de distribution. Avec le déploiement croissant de ces technologies dites vertes ces dernières décennies, caractérisées principalement par des dispositifs intelligents et un marché énergétique transactionnel en croissance, le système énergétique a acquis une dynamique significative, en particulier du côté de la distribution. Le comportement des consommateurs intelligents et la variabilité des RED changent radicalement les paradigmes traditionnels de planification et d'opération.
Cette recherche contribue au domaine de la co-simulation distribution et client (D&C) en introduisant FlexSimNet, une plateforme de simulation innovante open-source, construite autour des technologies de flexibilité et des ressources énergétiques distribuées qui seront cruciales pour fournir de l'électricité Décarbonée, Numérisée et Décentralisée (3D) de manière rentable pour permettre l'émergence de systèmes énergétiques plus verts. FlexSimNet est une plateforme de simulation multi-sectorielle conçue comme un repère pour la recherche et l'analyse de systèmes de distribution et de clients intégrés à grande échelle.
FlexSimNet est développé dans un environnement Python et utilise des solveurs de systèmes tels qu'OpenDSS et EnergyPlus en co-simulation. Il comprend plusieurs modules, chacun exécutant des fonctions spécifiques avec des entrées et des sorties distinctes, et conçu pour offrir une flexibilité dans le contrôle de l'opération des charges flexibles et des RED. Ces modules incluent :
- Un outil Générique Tierme-Series Pow Flow (GTSPF), qui tire parti d'OpenDSS et de Python pour la simulation dynamique des réseaux de distribution, qui est également intégré à la plateforme d'Énergie Transactionnelle ETSim, permettant un examen détaillé des échanges d'énergie transactionnelle et de leur impact sur les opérations et l'efficacité du réseau.
- Un module de Modélisation de l'Énergie Domestique qui utilise EnergyPlus pour une modélisation précise de l'énergie des bâtiments, facilitant une analyse plus approfondie des modèles de consommation tels que les niveaux de confort et leur influence sur le système énergétique global.
- La mise en œuvre de simulation de Monte Carlo pour explorer la nature stochastique de la charge et de la décharge des VE, fournissant des aperçus sur la flexibilité et les défis posés par une forte pénétration des VE.
- Et, l'application de techniques d'apprentissage machine pour la prévision précise de l'irradiance solaire et de la température, démontrant le potentiel des approches basées sur les données pour améliorer la précision prédictive.
Le potentiel et les capacités de FlexSimNet sont évalués de manière approfondie à travers une variété de scénarios et de configurations de simulation. Les résultats confirment l'efficacité et la fiabilité de la plateforme comme cadre robuste pour simuler les interactions entre les RED, les charges flexibles et les réseaux de distribution, offrant un nouveau repère pour l'analyse techno-économique. Les simulations démontrent la complexité supplémentaire introduite dans le réseau par la haute pénétration des ressources énergétiques distribuées et des charges flexibles. Bien que ces ressources offrent des avantages tels que l'intégration des énergies renouvelables et les services de soutien potentiels au réseau, elles défient également l'efficacité du réseau. Cela souligne l'importance d'optimiser l'opération et la coordination de ces ressources au sein du réseau de distribution pour exploiter pleinement leurs avantages tout en maintenant ou en améliorant la performance du réseau. Cela impose également des défis pour la stabilité de la tension. La gestion de ces fluctuations devient cruciale, surtout à mesure que les niveaux de pénétration de ces technologies augmentent. Les opérateurs de système doivent employer des stratégies de régulation de tension avancées et exploiter la flexibilité de ces ressources énergétiques distribuées pour maintenir la stabilité du réseau. / The ongoing global energy transition urges the exploration and development of holistic approaches that include the modelling and simulation of distributed energy resources (DER) and modern flexible loads in an integrated manner while evaluating their impacts on the distribution network. With the increasing deployment of these so-called green technologies in recent decades, characterized primarily by smart devices and a growing transactional energy market, the power system has gained significant dynamism, especially on the distribution side. The behaviour of smart consumers and the variability of DER drastically change traditional planning and operational paradigms.
This research contributes to the distribution and client (D&C) co-simulation field by introducing FlexSimNet, an innovative open-source simulation platform, built around flexibility technologies and distributed energy resources that will be crucial for delivering cost-effective Decarbonized, Digitized and Decentralized (3D) electricity to enable emerging greener energy systems. FlexSimNet is a multi-sector simulation platform designed as a benchmark for the research and analysis of large-scale integrated distribution and customer systems.
FlexSimNet is developed in a Python environment and employs system solvers such as OpenDSS and EnergyPlus in co-simulation. It comprises several modules, each performing specific functions with distinct inputs and outputs, and designed to offer flexibility in controlling the operation of flexible loads and DER. These modules include:
- A Generic Time-Series Power Flow (GTSPF) tool, which leverages OpenDSS and Python for dynamic simulation of distribution networks which is also integrated with the transactive energy ETSim platform, enabling detailed examination of transactive energy exchanges and their impact on network operations and efficiency.
- A Home Energy Modelling module which utilizes EnergyPlus for accurate building energy modelling, facilitating a deeper analysis of consumption patterns such as comfort levels and their influence on the overall energy system.
- The implementation of Monte Carlo simulations to explore the stochastic nature of EV charging and discharging, providing insights into the flexibility and challenges posed by high EV penetration.
- And, the application of machine learning techniques for precise forecasting of solar irradiance and temperature, demonstrating the potential of data-driven approaches inenhancing predictive accuracy.
FlexSimNet's potential and capabilities are thoroughly assessed through a variety of scenarios and simulation setups. The results confirm the platform's effectiveness and reliability as a robust framework for simulating the interactions between DER, flexible loads, and distribution networks, offering a new benchmark for techno-economic analysis. The simulations demonstrate the additional complexity introduced into the network by the high penetration of distributed energy resources and flexible loads. While these resources offer benefits such as renewable integration and potential grid support services, they also challenge network efficiency. This underscores the importance of optimizing the operation and coordination of these resources within the distribution network to harness their full benefits while maintaining or enhancing network performance. It also imposes challenges for voltage stability. Managing these fluctuations becomes crucial, especially as the penetration levels of such technologies grow. System operators need to employ advanced voltage regulation strategies and leverage the flexibility of these distributed energy resources to maintain grid stability.
|
Page generated in 0.12 seconds