• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 76
  • 18
  • 1
  • Tagged with
  • 95
  • 95
  • 50
  • 29
  • 25
  • 22
  • 18
  • 12
  • 9
  • 9
  • 8
  • 8
  • 7
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

The value of hydrological information in multireservoir systems operation

Pina Fulano, Jasson 24 April 2018 (has links)
La gestion optimale d’un système hydroélectrique composé de plusieurs réservoirs est un problème multi-étapes complexe de prise de décision impliquant, entre autres, (i) un compromis entre les conséquences immédiates et futures d’une décision, (ii) des risques et des incertitudes importantes, et (iii) de multiple objectifs et contraintes opérationnelles. Elle est souvent formulée comme un problème d’optimisation, mais il n’existe pas, à ce jour, de technique de référence même si la programmation dynamique (DP) a été souvent utilisée. La formulation stochastique de DP (SDP) permet la prise en compte explicite de l’incertitude entourant les apports hydrologiques futurs. Différentes approches ont été développées pour incorporer des informations hydrologiques et climatiques autres que les apports. Ces études ont révélé un potentiel d’amélioration des politiques de gestion proposées par les formulations SDP. Cependant, ces formulations sont applicables aux systèmes de petites tailles en raison de la célèbre « malédiction de la dimensionnalité ». La programmation dynamique stochastique duale (SDDP) est une extension de SDP développée dans les années 90. Elle est l’une des rares solutions algorithmiques utilisées pour déterminer les politiques de gestion des systèmes hydroélectriques de grande taille. Dans SDDP, l’incertitude hydrologique est capturée à l’aide d’un modèle autorégressif avec corrélation spatiale des résidus. Ce modèle analytique permet d’obtenir certains des paramètres nécessaires à l’implémentation de la technique d’optimisation. En pratique, les apports hydrologiques peuvent être influencés par d’autres variables observables, telles que l’équivalent de neige en eau et / ou la température de la surface des océans. La prise en compte de ces variables, appelées variables exogènes, permet de mieux décrire les processus hydrologiques et donc d’améliorer les politiques de gestion des réservoirs. L’objectif principal de ce doctorat est d’évaluer la valeur économique des politiques de gestion proposées par SDDP et ce pour diverses informations hydro-climatiques. En partant d’un modèle SDDP dans lequel la modélisation hydrologique est limitée aux processus Makoviens, la première activité de recherche a consisté à augmenter l’ordre du modèle autorégressif et à adapter la formulation SDDP. La seconde activité fut dédiée à l’incorporation de différentes variables hydrologiques exogènes dans l’algorithme SDDP. Le système hydroélectrique de Rio Tinto (RT) situé dans le bassin du fleuve Saguenay-Lac-Saint-Jean fut utilisé comme cas d’étude. Étant donné que ce système n’est pas capable de produire la totalité de l’énergie demandée par les fonderies pour assurer pleinement la production d’aluminium, le modèle SDDP a été modifié de manière à considérer les décisions de gestion des contrats avec Hydro Québec. Le résultat final est un système d’aide à la décision pour la gestion d’un large portefeuille d’actifs physiques et financiers en utilisant diverses informations hydro-climatiques. Les résultats globaux révèlent les gains de production d’énergie auxquels les opérateurs peuvent s’attendre lorsque d’autres variables hydrologiques sont incluses dans le vecteur des variables d’état de SDDP. / The optimal operation of a multireservoir hydroelectric system is a complex, multistage, stochastic decision-making problem involving, among others, (i) a trade-off between immediate and future consequences of a decision, (ii) considerable risks and uncertainties, and (iii) multiple objectives and operational constraints. The reservoir operation problem is often formulated as an optimization problem but not a single optimization approach/algorithm exists. Dynamic programming (DP) has been the most popular optimization technique applied to solve the optimization problem. The stochastic formulation of DP (SDP) can be performed by explicitly considering streamflow uncertainty in the DP recursive equation. Different approaches to incorporate more hydrologic and climatic information have been developed and have revealed the potential to enhance SDP- derived policies. However, all these techniques are limited to small-scale systems due to the so-called curse of dimensionality. Stochastic Dual Dynamic Programming (SDDP), an extension of the traditional SDP developed in the 90ies, is one of the few algorithmic solutions used to determine the operating policies of large-scale hydropower systems. In SDDP the hydrologic uncertainty is captured through a multi-site periodic autoregressive model. This analytical linear model is required to derive some of the parameters needed to implement the optimization technique. In practice, reservoir inflows can be affected by other observable variables, such snow water equivalent and/or sea surface temperature. These variables, called exogenous variables, can better describe the hydrologic processes, and therefore enhance reservoir operating policies. The main objective of this PhD is to assess the economic value of SDDP-derived operating policies in large-scale water systems using various hydro-climatic information. The first task focuses on the incorporation of the multi-lag autocorrelation of the hydrologic variables in the SDDP algorithm. Afterwards, the second task is devoted to the incorporation of different exogenous hydrologic variables. The hydroelectric system of Rio Tinto (RT) located in the Saguenay-Lac-Saint-Jean River Basin is used as case study. Since, RT’s hydropower system is not able to produce the entire amount of energy demanded at the smelters to fully assure the aluminum production, a portfolio of energy contacts with Hydro-Québec is available. Eventually, we end up with a decision support system for the management of a large portfolio of physical and financial assets using various hydro-climatic information. The overall results reveal the extent of the gains in energy production that the operators can expect as more hydrologic variables are included in the state-space vector.
42

Le transport intrahospitalier : conception et développement d'un modèle de simulation

Painchaud, Maxime 18 October 2019 (has links)
Afin de supporter les différentes activités au sein d’un centre hospitalier, le département de logistique est primordial pour offrir un service de qualité. Plus particulièrement, un service de brancarderie est nécessaire afin d’acheminer les patients non autonomes ou du matériel aux différentes unités de soins. La planification de ces activités de transport présente d’importants défis, car elle s’opère dans un environnement dynamique et imprévisible. En plus, l’aspect humain des transports apporte son lot de complication. Ce document traitera de la problématique du transport intrahospitalier au Centre Hospitalier Universitaire de Sherbrooke (CHUS). Cet établissement de santé coordonne ses activités de transports par le biais d’un système centralisé affectant des requêtes de transports aux différents brancardiers. L’outil de simulation va permettre de reproduire les flux à l’intérieur d’un établissement cible. Ensuite, le comportement du modèle de simulation sera mesuré et analysé lorsque des modifications au niveau des différents paramètres sont apportées.
43

L'empathie et la vidéoconférence en séances simulées de téléthérapie

Grondin, Frédéric 30 August 2022 (has links)
La téléthérapie, soit l'offre de soins en psychothérapie à l'aide de moyens de communication comme la vidéoconférence (VC), est une modalité de traitement de plus en plus utilisée. Bien que la recherche montre que cette modalité soit aussi efficace que les suivis en présentiel et qu'elle permette la création de l'alliance thérapeutique avec les clients, des préoccupations subsistent quant à la possibilité que l'empathie soit impactée dans les suivis de téléthérapie par VC. Les quelques données disponibles indiquent que l'empathie ressentie par les thérapeutes et perçue par les clients pourrait être moindre en VC qu'en présentiel, ce qui n'a pas encore été testé expérimentalement. Cet écart d'empathie proviendrait de la perte relative de certains indices non verbaux en VC, notamment du contact visuel. Considérant que l'empathie constitue un prédicteur de l'issue thérapeutique, il importe 1) d'élucider les mécanismes propres au contexte de VC qui influencent l'empathie, 2) de tester quantitativement la présence d'une différence d'empathie entre les séances en VC et celles en présentiel et 3) de développer des méthodes par lesquelles optimiser l'empathie en téléthérapie. Ces objectifs sont abordés par l'entremise des quatre chapitres de la thèse. Le premier chapitre aborde le développement d'un cadre conceptuel rendant compte de l'effet de filtre présent dans un contexte de communication virtuelle et du probable impact délétère de cet effet de filtre sur l'empathie en téléthérapie. Le chapitre 2, au moyen de deux études, montre que les niveaux d'empathie ressentie et perçue lors de séances simulées de thérapie sont moins élevés en VC qu'en présentiel. Le chapitre 2 identifie également que certains éléments de la téléprésence, soit l'impression pour les thérapeutes et les clients d'être ensemble durant l'appel en VC, corrèlent avec l'empathie rapportée par les thérapeutes et les clients. Les chapitres 3 et 4 investiguent l'effet du contact visuel sur l'empathie perçue en téléthérapie. Le chapitre 3 décrit d'abord le développement d'une méthodologie simple permettant de préserver la perception de contact visuel en diminuant l'angle de regard situé entre la caméra web et les yeux de l'interlocuteur sur l'écran d'ordinateur. Le chapitre 4 reprend cette méthodologie pour créer deux conditions expérimentales, avec ou sans contact visuel en VC. Les résultats montrent que, contrairement aux hypothèses initiales, le fait de pouvoir établir un contact visuel n'augmente pas les niveaux d'empathie et de téléprésence rapportés par les clients en séances simulées de téléthérapie. Des données d'oculométrie prélevées durant les séances montrent que les clients ne regardent pas davantage les yeux et le visage du thérapeute dans la condition avec contact visuel. Une association est toutefois observée entre le temps passé à regarder les yeux du thérapeute et l'empathie rapportée par les clients, mais seulement dans la condition avec contact visuel. Ces données indiquent ainsi que les clients sont en mesure de percevoir l'empathie en VC, que le contact visuel soit possible ou non. La thèse démontre que l'empathie peut être affectée en contexte de VC, mais également que les clients peuvent s'ajuster à l'altération de certains indices non verbaux lorsqu'ils jaugent l'empathie du thérapeute. Ces résultats sont encourageants vu l'usage grandissant de cette modalité de traitement en contexte de pandémie mondiale de COVID-19. / Teletherapy, defined as the use of a communication medium such as videoconference (VC) to conduct psychotherapy sessions at a distance, is increasingly used by therapists and clients. The use of teletherapy has seen a surge during the COVID-19 pandemic as a means to comply with the recommended social distancing measures. Though teletherapy has produced comparable outcomes to traditional, in-person therapy and is deemed a suitable modality for the establishment of therapeutic alliance, concerns remain over the possibility that empathy could be altered in teletherapy through VC. The available data, although limited, support the hypothesis that empathy could be lower in VC than in in-person sessions, but this has yet to be empirically tested. The relative loss of nonverbal cues in VC, such as the alteration of eye contact, could account for this potential discrepancy in empathy. There is therefore a need 1) to describe the influence of the VC medium on the mechanisms underlying empathy, 2) to quantitatively compare the levels of empathy in VC sessions to those in in-person sessions, and 3) to design a procedure to enhance empathy in VC sessions. These objectives are addressed in the four chapters of this thesis. The first chapter consists in the elaboration of a conceptual framework of online empathy. The conceptual framework describes the filter effect induced by online environments on nonverbal signals and its potential adverse influence on empathy in VC. Chapter 2 describes a study showing a decrease in empathy reported by therapists and clients taking part in simulated clinical sessions in VC and in-person settings. The results also reveal a significant correlation between empathy and telepresence, a term that relates to the impression for clients and therapists of being there, together in a VC interaction. The studies described in Chapters 3 and 4 aim at identifying the impact of eye contact on perceived empathy in teletherapy. Chapter 3 first describes the development of a simple methodology that facilitates eye contact in VC by decreasing the gaze angle between the webcam and the eyes of the other interactant on the screen. This methodology is employed in the experiment described in Chapter 4 to either allow or prevent eye contact from the clients' perspective during simulations of clinical sessions. The results show that, contrary to the hypothesis, facilitating eye contact in VC does not lead to higher levels of empathy and telepresence. Eye tracking data collected during the sessions showed that clients did not look more at the eyes and the face of therapists when eye contact was facilitated. However, a significant, positive correlation was observed between the time spent looking into the eyes of the therapist and the levels of empathy reported, but only in the sessions where eye contact was facilitated. These results show that clients can perceive empathy in VC, whether eye contact is altered or not. Overall, the findings of the thesis demonstrate that empathy can be altered in VC sessions but also highlight the capacity of clients to adapt to the alteration of nonverbal signals when assessing therapist empathy.
44

Prévision de la demande d'essence au Canada

Guelmbaye, Ngarsandje 23 April 2018 (has links)
Ce mémoire compare le pouvoir prédictif de 6 modèles de demande d’essence au Canada. Le modèle de tendance linéaire, le modèle à tendance quadratique, le modèle à tendance exponentielle, le modèle d’ajustement partiel ainsi que deux modèles basés sur l’approche Box-Jenkins ont été évalués. Le modèle d’ajustement partiel permet de montrer que la demande d’essence est inélastique par rapport au revenu ainsi qu’au prix. Toutefois, l’élasticité-revenu est plus forte que l’élasticité prix. Sur base de cette analyse, il est prévu qu’en 2020, au quatrième trimestre, la demande d’essence par habitant au Canada augmentera de moins d’un pourcent relativement au quatrième trimestre 2009.
45

La 3D interactive en temps réel comme aide à l'acquisition des connaissances spatiales: étude de l'influence du mode d'exploration

Mohamed-Ahmed, Ashraf 11 April 2018 (has links)
Cette recherche s’inscrit dans le cadre général de la 3D interactive en temps réel comme outil de représentation, d’aide à la conception et à la communication des idées et hypothèses de design. Un facteur, l’interaction et plus précisément la navigation dans les Environnements Virtuels (EV) 3D non immersifs est l’objet de cette recherche. Par le biais d’une approche expérimentale, l’influence de la 3D interactive en temps réel sur l’acquisition des connaissances spatiales est illustrée par l'étude du mode d’exploration dans un espace virtuel complexe. En effet, les résultats de la recherche montrent une influence positive de la 3D interactive sur la formation d’une compréhension spatiale des environnements en mode d’exploration actif. Alors qu’en mode d’exploration passif, il s’est avéré que les esquisses comportaient plus d’erreurs dans la représentation des espaces. / This research is part of the general framework of real time 3D interaction as a tool for representation, aided design and communication of design ideas. A factor, interaction and more precisely, navigation in a non immersive 3D Virtual Environment (VE), is the research subject. Using an experimental approach, the influence of real time 3D interaction on the acquisition of spatial knowledge is demonstrated, through observation of exploration modes in a complex virtual space. The research results stress a positive influence on spatial understanding through 3D interaction of visited environments during an active exploration. However, during passive exploration mode, the results revealed sketches with more spatial representations errors.
46

Évaluation de l'éco-efficacité des procédés de transformation des produits laitiers : développement d'un outil de simulation

Benoit, Scott 25 September 2018 (has links)
L’éco-efficacité est un concept qui a été spécifiquement conçu pour le monde de l’entreprise, et qui lie les performances environnementales et économiques d’un produit ou d’un service. Depuis 2012, l’éco-efficacité fait l’objet d’une méthode d’évaluation normalisée (ISO 14045) qui impose l’analyse de cycle de vie pour évaluer les impacts potentiels à l’environnement. L’évaluation de l’éco-efficacité offre ainsi au monde de l’entreprise l’opportunité de prendre des décisions non plus basées uniquement sur des égards économiques, mais prenant aussi en considération les impacts potentiels à l’environnement. Parmi les innombrables activités industrielles susceptibles de tirer profit du concept d’éco-efficacité se trouve la transformation des produits laitiers. En effet, ce secteur de l’industrie agro-alimentaire permet certes de valoriser la matière première laitière, mais exploite parallèlement une part significative des ressources naturelles. Le premier objectif de cette thèse a été de réaliser un état des lieux sur l’évolution et la mise en oeuvre du concept d’éco-efficacité dans le domaine de la transformation laitière. Une première étude a permis d’observer l’activité de transformation des produits laitiers sous une perspective de cycle de vie, et d’explorer les développements successifs du concept d’éco-efficacité dans ce domaine. Cette étude a notamment montré que la simulation de procédés présentait un potentiel intéressant pour lever les difficultés associées à l’évaluation de l’éco-efficacité selon la norme ISO 14045, soit les nécessités de disposer d’inventaires complets de flux de matière et d’énergie et d’une certaine expertise en analyse de cycle de vie. Par conséquent, le second objectif de cette thèse a été de développer un outil de simulation de procédés permettant l’évaluation de l’éco-efficacité des procédés de transformation des produits laitiers. Une seconde étude a ainsi permis le développement d’un prototype de logiciel permettant l’évaluation de l’éco-efficacité des produits laitiers. Ce prototype repose sur un simulateur de procédés spécifiquement développé pour la transformation laitière et intègre des jeux de données d’impacts potentiels à l’environnement. Ces caractéristiques lui permettent de générer des inventaires détaillés de flux de matière et d’énergie, et de procéder à l'évaluation des impacts potentiels à l’environnement, levant ainsi les difficultés identifiées lors de la première étude. Le prototype développé permet non seulement d'évaluer l’éco-efficacité des procédés modélisés, mais aussi d’identifier les opportunités d'améliorations, de comparer plusieurs scénarios de valorisation du lait cru, et d'évaluer la viabilité économique des scénarios modélisés. Cet outil a été utilisé lors d’une troisième et dernière étude, afin d’évaluer la contribution des opérations de séparation par membrane à l’éco-efficacité globale des procédés de transformation des produits laitiers. Ces opérations sont omniprésentes dans le domaine de la transformation laitière et présentent un potentiel non démontré d’amélioration de l’éco-efficacité. Trois scénarios de production de fromage Cheddar ont été comparés dans cette étude : deux intégrant des opérations de séparation par membrane à l’étape de standardisation du lait de fromagerie, et un dénué de telles opérations. Les résultats obtenus ont montré que même si l’introduction de procédés de séparation par membrane à l’étape de standardisation des laits de fromagerie permet d’augmenter significativement les rendements fromagers, elle ne permet pas d’augmenter l’éco-efficacité de cette transformation laitière. L’analyse des résultats a permis de déterminer que les potentiels d’amélioration de l’éco-efficacité par l’introduction de procédés de séparation par membranes se situaient probablement aux étapes de valorisation des sous-produits laitiers. Les travaux de cette thèse ont rencontré l’ensemble de leurs objectifs et contribuent ainsi à rendre l'évaluation de l'éco-efficacité plus accessible à l’ensemble des décideurs liés de près ou de loin à l’industrie de transformation des produits laitiers. / Eco-efficiency is a concept specifically designed for the business world and which links theenvironmental and economic performances of a product or service. Since 2012, eco-efficiency is subject to a standardised assessment (ISO 14045) which imposes life cycle analysis to conduct the assessment of the potential environmental impacts. Eco-efficiency assessment thus offers the business world the opportunity to make decisions not only based on economical criteria but also factoring in the potential environmental impacts. Among the countless industrial activities likely to benefit from the eco-efficiency concept is dairy processing. Indeed, this sector of the agri-food industry surely enables valorisation of dairy raw material but it concomitantly exploits a significant part of the natural resources. The first objective of this thesis was to conduct a state of play on the development and implementation of the ecoefficiency concept in the dairy processing field. A first study enabled to look at the dairy processing activity from a life-cycle perspective, and to investigate the successive developments of the eco-efficiency concept in this field. In particular, the study showed that process simulation presented a sound interest in overcoming the difficulties associated with eco-efficiency assessment according to the ISO 14045 standard: the need for a complete inventory of material and energy flows, and for a certain expertise in life cycle analysis. Therefore, the second objective of this thesis was to develop a process simulation tool enabling the ecoefficiency assessment of the dairy processes. A second study thus led to the development of a software prototype allowing for eco-efficiency assessment of dairy products. This prototype relies on a process simulator specifically designed for dairy processes and which includes datasets of potential environmental impacts. These features allow for both the generation of detailed inventories of material and energy flows and potential environmental impact assessments, thereby overcoming the challenges identified in the first study. The developed prototype not only allows for eco-efficiency assessments of the modelled processes but also enables identification of the improvement opportunities, comparison of multiple scenarios of raw milk valuation, and assessment of the economic viability of the modelled scenarios. This tool was used in a third and last study in order to assess the contribution of pressure driven filtration operations to the overall eco-efficiency of dairy processes. These operations are omnipresent in the dairy processing activity and hold a potential for eco-efficiency improvement which has not been yet demonstrated. Three scenarios of Cheddar cheese production were compared in this study: two integrating pressure driven filtration processes at the cheese milk standardisation stage, and one that did not include such operations. Results revealed that although introducing pressure driven filtration processes at the cheese milk standardisation stage can significantly improve the cheese yields, it does not allow for an improvement of the eco-efficiency of the cheese production process. Analysis of the results showed that t he potentials for eco-efficiency improvements in dairy processing through the introduction of pressure driven filtration operations could probably be achieved by incorporating them in the by-product valuation processes. The research work conducted within the framework of this thesis fulfilled all the different objectives set and therefore should help make eco-efficiency assessment more accessible to all the decision-makers related in one way or another to the dairy processing industry.
47

Modélisation d'un outil graphique d'aide à la compréhension de résolution de programmes logiques

Bouanane, Mohamed 20 April 2018 (has links)
Ce projet de recherche traite du domaine de l’intelligence artificielle, plus précisément de la programmation logique, un type de programmation utilisée pour concevoir des systèmes dits intelligents. Ce type de programmation est toutefois assez complexe à assimiler et il n’existe, à notre connaissance, aucun outil interactif qui permette de montrer efficacement le processus d’exécution d’un programme logique. L’objectif de cette recherche consistait donc à proposer un modèle d’outil facilitant la compréhension de la résolution d’un programme logique. Le modèle proposé permet de représenter graphiquement et dynamiquement la trace de résolution d’un programme logique. Un prototype a été construit pour valider ce modèle avec des programmes écrits en langage Prolog. L’utilisateur peut ainsi suivre les étapes d’exécution à travers l’affichage dynamique d’un arbre de dérivation. Actuellement, le modèle ne permet pas de prendre en compte des programmes écrits avec différents langages de programmation, une telle généralisation serait une bonne amélioration.
48

Contribution de l'hydrogéochimie à la compréhension des écoulements d'eaux souterraines en Outaouais, Québec, Canada

Montcoudiol, Nelly 23 April 2018 (has links)
En Outaouais, les eaux souterraines sont une ressource essentielle pour les besoins domestiques et agricoles (hors ville de Gatineau, qui utilise les eaux de surface). La région d’étude repose sur le Bouclier Canadien, fait de roches silicatées fracturées recouvertes par les sédiments résultants de la dernière glaciation-déglaciation. Dans ce contexte, améliorer les connaissances sur le fonctionnement des aquifères est vital pour une utilisation durable de la ressource. Pour atteindre cet objectif, un modèle conceptuel a été proposé résultant de l’interprétation des données géochimiques couplée à la modélisation numérique. L’altération des silicates, l’intrusion d’eau saline de l’ancienne Mer de Champlain suivie de l’échange cationique dans les argiles marines affectant les aquifères confinés ainsi que les mélanges d’eaux sont les principaux processus identifiés par une analyse statistique multivariée. A échelle locale, une signature des isotopes stables similaire à celle de la pluie actuelle et la présence de tritium indiquent des temps de résidence relativement courts dans les 100 premiers mètres de profondeur, ce qui est confirmé par la modélisation des écoulements et des âges. La présence d’hélium 4 est attribuée à la diffusion depuis des eaux plus profondes et plus âgées, résultant de la diminution de la conductivité hydraulique avec la profondeur. Des mélanges résultent de l’échantillonnage dans des puits ouverts. Dans les aquifères non confinés, les activités en 14C sont principalement le résultat de l’équilibre de l’eau de recharge avec le CO2 du sol dans un système ouvert suivi de l’altération des silicates par du CO2 fossile ou de la dissolution des carbonates en milieu fermé plutôt que de la décroissance radioactive. Finalement, la simulation des chlorures montre que les restes de la Mer de Champlain seraient présents dans les argiles marines et dans les zones moins perméables de l’aquifère confiné par rapport aux eaux caractérisés par l’échange cationique. L’étude a permis de caractériser la qualité des eaux souterraines dans la partie fracturée du bouclier canadien dans les dépôts du Quaternaire à l’échelle régionale. Les systèmes locaux d’écoulement, avec des temps de résidence courts dans la partie supérieure du roc sont essentiels et doivent être pris en compte pour évaluer la vulnérabilité des ressources en eaux souterraines. / Throughout most of the Outaouais Region, groundwater is an essential resource for both for domestic and agricultural use (except in the city of Gatineau which uses surface water). The study area lies in the Canadian Shield, and includes a fractured silicate bedrock aquifer which is covered by sediments from the last glacial-deglacial period. In this context, improving our understanding of aquifers is vital for a sustainable use of this resource. To fulfill this objective, a conceptual model was proposed based on the interpretation of geochemical data coupled to numerical modelling. Silicate weathering, seawater intrusion by the former Champlain Sea and subsequent cation exchange in marine clays affecting groundwater quality in confined aquifers, and mixing between waters of different ages are identified by a multivariate statistical analysis as the principal geochemical processes. At the local scale, a stable isotope signature similar to current precipitation and the presence of tritium indicate relatively short residence times in the first 100 m below ground surface, which was confirmed by numerical flow and age modelling. The occurrence of helium 4 is attributed to diffusion from deeper older groundwater within lower hydraulic conductivity zones. Some mixing due to sampling in open boreholes may also have occurred. In the unconfined aquifer, 14C activities appear to be the result of such as equilibration of recharge water with soil CO2 in open conditions coupled to silicate weathering by fossil CO2 or carbonate dissolution under closed conditions, rather than from radioactive decay. Finally, chloride transport simulations show that remnants of the Champlain Sea would still be found in marine clays and in the less permeable zones of the confined aquifer whereas groundwater characterised by cation exchange are found in more permeable zones. The study has helped characterize regional groundwater quality in the upper fractured zone of the Canadian Shield and in the Quaternary sediments of the Outaouais region. It has shown the importance of local scale groundwater flow systems and relatively rapid flow in the upper part of the bedrock which need to be considered when assessing the vulnerability of these regional groundwater resources.
49

Détermination des cotes de crue en présence de glace sur la Rivière Chaudière

Ladouceur, Jean-Robert 20 March 2023 (has links)
La rivière Chaudière, située au sud de la Ville de Québec, est sujette aux inondations provoquées par la formation d'embâcles. Des inondations ont été enregistrées depuis 1896 jusqu'à ce jour malgré la mise en service, en 1967, d'un ouvrage de contrôle des glaces (ICS) à 3 kilomètres en amont de la Ville de Saint-Georges-de-Beauce afin de réduire les inondations causées par la glace dans le secteur le plus à risque de la rivière Chaudière. Les inondations par embâcles demeurent donc un problème récurrent qui affecte régulièrement 8 villes le long du tronçon de 90 kilomètres en aval de l'ICS. Dans le cadre d'un programme gouvernemental d'aléas d'inondation initié par le ministère des Affaires Municipales et de l'Habitation (MAMH), un mandat pour évaluer les cotes de crues en présence de glace de la rivière Chaudière a été confié à l'Université Laval. La modélisation d'embâcles combinée à des données d'observations historiques d'embâcles est utilisée pour déterminer les niveaux d'inondation par embâcles. L'approche préconisée consiste à contrôler un modèle de simulation hydraulique fluviale, plus spécifiquement le module HEC-RAS, avec un script externe en Python pour générer une distribution Monte-Carlo (MOCA) d'évènements d'embâcles le long du secteur de la rivière à l'étude. Les paramètres mécaniques tels que l'angle de frottement, la porosité et les vitesses de contrainte de cisaillement critiques sont également attribués de manière aléatoire par le script dans une plage délimitée. Les paramètres physiques et hydrologiques attribués à chaque évènement sont choisis au hasard en fonction d'une probabilité estimée à partir des observations historiques, soit le débit calculé à l'ICS, l'emplacement de l'embâcle, la longueur de l'embâcle et les degrés-jours de gel (épaisseur de la glace). Les cotes de crues selon les périodes de retour de 2, 20, 100 et 350 ans sont alors déterminées selon une équation statistique empirique de Gringorten, suivie d'une modulation pour tenir compte des facteurs externes non considérés par MOCA. Ces cotes de crues en présence de glace sont comparées à celles en eau libre telles que déterminées par la méthode classique. Le projet démontre que les niveaux d'eau calculés en présence de glace prédominent ceux en eau libre pour les villes en amont de Saint-Joseph-de-Beauce. La combinaison des niveaux d'eau en présence de glace et en eau libre, réalisée à l'aide de l'équation de la FEMA, montre que la probabilité d'atteindre un seuil spécifique d'élévation diminue la période de retour et en conséquence augmente les probabilités reliées aux inondations. Ce mémoire est le premier travail scientifique qui présente une validation complète de l'approche hydrotechnique utilisant les valeurs in situ de débit, de DJGC et de l'emplacement et de la longueur d'embâcles pour la détermination des cotes de crue par embâcles. Les valeurs de cotes de crues calculées avec la méthode MOCA sont comparées avec les données historiques dans le secteur à l'étude de la rivière Chaudière. La présente étude met en évidence les limitations et les conditions nécessaires pour l'utilisation de cette méthode. Ce projet de recherche montre aussi pour la première fois que l'approche hydrotechnique permet de calculer des courbes fréquentielles de niveaux d'eau en présence de glace qui peuvent être utilisées à des fins réglementaires au Québec. / The Chaudière River, located south of Quebec City, is prone to seasonal ice jam flooding. As early as 1896, ice induced floods have been recorded and in 1967 an ice control structure (ICS) was constructed 3 kilometers upstream of the Town of St. Georges to reduce ice flooding events in the area most at risk of the Chaudière River. Despite the construction of the ICS, flooding caused by ice jams is still an ongoing issue that regularly affects 8 towns along this reach of 90 kilometers downstream of the ICS. As part of a governmental flood hazard program that is managed by the provincial ministère des Affaires Municipales et de l'Habitation (MAMH), the mandate of assessing ice jam flood delineation has been given to Laval University. In order to achieve this objective, ice jam modelling combined with historical data is used to determine ice jam flood levels. More specifically, the approach used is to control a river hydraulic simulation model (HEC-RAS) with an external script (MOCA) written in Python to generate a Monte-Carlo distribution of ice jam flood events along the study reach. The script polls historical data of recorded ice jam events which include flow measured at the ICS, ice jam location, ice jam length, and degree days of freezing (ice thickness). Mechanical parameters such as the angle of friction, porosity and critical shear stress velocities are also randomly assigned by the script within a delimited range. The physical and hydrological parameters assigned to each event are randomly chosen based on the historical data. The flood levels according to the return periods of 2, 20, 100, and 350 years are then determined according to an empirical statistical equation and modulated to consider external factors not considered by the MOCA. These calculated flood levels are compared with the ones obtained by open water floods as determined by the classical method. The results show that the calculated ice induce water levels predominate over open water flooding for the towns upstream of Saint-Joseph-de-Beauce. The combination of ice induced and open water levels, using the FEMA equation, show that the probability of reaching a specific elevation is reduced and thus increases the probability associated with flooding. This thesis is the first scientific work that presents the complete validity of the hydrotechnical approach using in situ flows, cumulative degree-days of freezing and ice jam length and location for the determination for ice induced flood delineation combined with a MOCA framework. Calculated flood frequency levels are compared with historical ice induced flood water levels within the studied reach, as well as the conditions and limitations for using this approach. Also, this scientific document is the first to present ice-related flood levels using the hydrotechnical approach for regulatory purposes in the Province of Québec.
50

Habilitation des technologies pour l'électricité décarbonée, numérisée et décentralisée par l'utilisation de la co-simulation stochastique de systèmes de distribution et de clients intégrés à grande échelle

Salinas Herrera, Kleber Fernando 04 June 2024 (has links)
La transition énergétique mondiale en cours incite à l'exploration et au développement d'approches holistiques incluant la modélisation et la simulation des ressources énergétiques distribuées (RED) et des charges flexibles modernes de manière intégrée, tout en évaluant leurs impacts sur le réseau de distribution. Avec le déploiement croissant de ces technologies dites vertes ces dernières décennies, caractérisées principalement par des dispositifs intelligents et un marché énergétique transactionnel en croissance, le système énergétique a acquis une dynamique significative, en particulier du côté de la distribution. Le comportement des consommateurs intelligents et la variabilité des RED changent radicalement les paradigmes traditionnels de planification et d'opération. Cette recherche contribue au domaine de la co-simulation distribution et client (D&C) en introduisant FlexSimNet, une plateforme de simulation innovante open-source, construite autour des technologies de flexibilité et des ressources énergétiques distribuées qui seront cruciales pour fournir de l'électricité Décarbonée, Numérisée et Décentralisée (3D) de manière rentable pour permettre l'émergence de systèmes énergétiques plus verts. FlexSimNet est une plateforme de simulation multi-sectorielle conçue comme un repère pour la recherche et l'analyse de systèmes de distribution et de clients intégrés à grande échelle. FlexSimNet est développé dans un environnement Python et utilise des solveurs de systèmes tels qu'OpenDSS et EnergyPlus en co-simulation. Il comprend plusieurs modules, chacun exécutant des fonctions spécifiques avec des entrées et des sorties distinctes, et conçu pour offrir une flexibilité dans le contrôle de l'opération des charges flexibles et des RED. Ces modules incluent : - Un outil Générique Tierme-Series Pow Flow (GTSPF), qui tire parti d'OpenDSS et de Python pour la simulation dynamique des réseaux de distribution, qui est également intégré à la plateforme d'Énergie Transactionnelle ETSim, permettant un examen détaillé des échanges d'énergie transactionnelle et de leur impact sur les opérations et l'efficacité du réseau. - Un module de Modélisation de l'Énergie Domestique qui utilise EnergyPlus pour une modélisation précise de l'énergie des bâtiments, facilitant une analyse plus approfondie des modèles de consommation tels que les niveaux de confort et leur influence sur le système énergétique global. - La mise en œuvre de simulation de Monte Carlo pour explorer la nature stochastique de la charge et de la décharge des VE, fournissant des aperçus sur la flexibilité et les défis posés par une forte pénétration des VE. - Et, l'application de techniques d'apprentissage machine pour la prévision précise de l'irradiance solaire et de la température, démontrant le potentiel des approches basées sur les données pour améliorer la précision prédictive. Le potentiel et les capacités de FlexSimNet sont évalués de manière approfondie à travers une variété de scénarios et de configurations de simulation. Les résultats confirment l'efficacité et la fiabilité de la plateforme comme cadre robuste pour simuler les interactions entre les RED, les charges flexibles et les réseaux de distribution, offrant un nouveau repère pour l'analyse techno-économique. Les simulations démontrent la complexité supplémentaire introduite dans le réseau par la haute pénétration des ressources énergétiques distribuées et des charges flexibles. Bien que ces ressources offrent des avantages tels que l'intégration des énergies renouvelables et les services de soutien potentiels au réseau, elles défient également l'efficacité du réseau. Cela souligne l'importance d'optimiser l'opération et la coordination de ces ressources au sein du réseau de distribution pour exploiter pleinement leurs avantages tout en maintenant ou en améliorant la performance du réseau. Cela impose également des défis pour la stabilité de la tension. La gestion de ces fluctuations devient cruciale, surtout à mesure que les niveaux de pénétration de ces technologies augmentent. Les opérateurs de système doivent employer des stratégies de régulation de tension avancées et exploiter la flexibilité de ces ressources énergétiques distribuées pour maintenir la stabilité du réseau. / The ongoing global energy transition urges the exploration and development of holistic approaches that include the modelling and simulation of distributed energy resources (DER) and modern flexible loads in an integrated manner while evaluating their impacts on the distribution network. With the increasing deployment of these so-called green technologies in recent decades, characterized primarily by smart devices and a growing transactional energy market, the power system has gained significant dynamism, especially on the distribution side. The behaviour of smart consumers and the variability of DER drastically change traditional planning and operational paradigms. This research contributes to the distribution and client (D&C) co-simulation field by introducing FlexSimNet, an innovative open-source simulation platform, built around flexibility technologies and distributed energy resources that will be crucial for delivering cost-effective Decarbonized, Digitized and Decentralized (3D) electricity to enable emerging greener energy systems. FlexSimNet is a multi-sector simulation platform designed as a benchmark for the research and analysis of large-scale integrated distribution and customer systems. FlexSimNet is developed in a Python environment and employs system solvers such as OpenDSS and EnergyPlus in co-simulation. It comprises several modules, each performing specific functions with distinct inputs and outputs, and designed to offer flexibility in controlling the operation of flexible loads and DER. These modules include: - A Generic Time-Series Power Flow (GTSPF) tool, which leverages OpenDSS and Python for dynamic simulation of distribution networks which is also integrated with the transactive energy ETSim platform, enabling detailed examination of transactive energy exchanges and their impact on network operations and efficiency. - A Home Energy Modelling module which utilizes EnergyPlus for accurate building energy modelling, facilitating a deeper analysis of consumption patterns such as comfort levels and their influence on the overall energy system. - The implementation of Monte Carlo simulations to explore the stochastic nature of EV charging and discharging, providing insights into the flexibility and challenges posed by high EV penetration. - And, the application of machine learning techniques for precise forecasting of solar irradiance and temperature, demonstrating the potential of data-driven approaches inenhancing predictive accuracy. FlexSimNet's potential and capabilities are thoroughly assessed through a variety of scenarios and simulation setups. The results confirm the platform's effectiveness and reliability as a robust framework for simulating the interactions between DER, flexible loads, and distribution networks, offering a new benchmark for techno-economic analysis. The simulations demonstrate the additional complexity introduced into the network by the high penetration of distributed energy resources and flexible loads. While these resources offer benefits such as renewable integration and potential grid support services, they also challenge network efficiency. This underscores the importance of optimizing the operation and coordination of these resources within the distribution network to harness their full benefits while maintaining or enhancing network performance. It also imposes challenges for voltage stability. Managing these fluctuations becomes crucial, especially as the penetration levels of such technologies grow. System operators need to employ advanced voltage regulation strategies and leverage the flexibility of these distributed energy resources to maintain grid stability.

Page generated in 0.1145 seconds