• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 76
  • 19
  • 1
  • Tagged with
  • 96
  • 96
  • 50
  • 30
  • 26
  • 22
  • 18
  • 12
  • 9
  • 9
  • 9
  • 8
  • 8
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Le transport intrahospitalier : conception et développement d'un modèle de simulation

Painchaud, Maxime 18 October 2019 (has links)
Afin de supporter les différentes activités au sein d’un centre hospitalier, le département de logistique est primordial pour offrir un service de qualité. Plus particulièrement, un service de brancarderie est nécessaire afin d’acheminer les patients non autonomes ou du matériel aux différentes unités de soins. La planification de ces activités de transport présente d’importants défis, car elle s’opère dans un environnement dynamique et imprévisible. En plus, l’aspect humain des transports apporte son lot de complication. Ce document traitera de la problématique du transport intrahospitalier au Centre Hospitalier Universitaire de Sherbrooke (CHUS). Cet établissement de santé coordonne ses activités de transports par le biais d’un système centralisé affectant des requêtes de transports aux différents brancardiers. L’outil de simulation va permettre de reproduire les flux à l’intérieur d’un établissement cible. Ensuite, le comportement du modèle de simulation sera mesuré et analysé lorsque des modifications au niveau des différents paramètres sont apportées.
42

L'empathie et la vidéoconférence en séances simulées de téléthérapie

Grondin, Frédéric 30 August 2022 (has links)
La téléthérapie, soit l'offre de soins en psychothérapie à l'aide de moyens de communication comme la vidéoconférence (VC), est une modalité de traitement de plus en plus utilisée. Bien que la recherche montre que cette modalité soit aussi efficace que les suivis en présentiel et qu'elle permette la création de l'alliance thérapeutique avec les clients, des préoccupations subsistent quant à la possibilité que l'empathie soit impactée dans les suivis de téléthérapie par VC. Les quelques données disponibles indiquent que l'empathie ressentie par les thérapeutes et perçue par les clients pourrait être moindre en VC qu'en présentiel, ce qui n'a pas encore été testé expérimentalement. Cet écart d'empathie proviendrait de la perte relative de certains indices non verbaux en VC, notamment du contact visuel. Considérant que l'empathie constitue un prédicteur de l'issue thérapeutique, il importe 1) d'élucider les mécanismes propres au contexte de VC qui influencent l'empathie, 2) de tester quantitativement la présence d'une différence d'empathie entre les séances en VC et celles en présentiel et 3) de développer des méthodes par lesquelles optimiser l'empathie en téléthérapie. Ces objectifs sont abordés par l'entremise des quatre chapitres de la thèse. Le premier chapitre aborde le développement d'un cadre conceptuel rendant compte de l'effet de filtre présent dans un contexte de communication virtuelle et du probable impact délétère de cet effet de filtre sur l'empathie en téléthérapie. Le chapitre 2, au moyen de deux études, montre que les niveaux d'empathie ressentie et perçue lors de séances simulées de thérapie sont moins élevés en VC qu'en présentiel. Le chapitre 2 identifie également que certains éléments de la téléprésence, soit l'impression pour les thérapeutes et les clients d'être ensemble durant l'appel en VC, corrèlent avec l'empathie rapportée par les thérapeutes et les clients. Les chapitres 3 et 4 investiguent l'effet du contact visuel sur l'empathie perçue en téléthérapie. Le chapitre 3 décrit d'abord le développement d'une méthodologie simple permettant de préserver la perception de contact visuel en diminuant l'angle de regard situé entre la caméra web et les yeux de l'interlocuteur sur l'écran d'ordinateur. Le chapitre 4 reprend cette méthodologie pour créer deux conditions expérimentales, avec ou sans contact visuel en VC. Les résultats montrent que, contrairement aux hypothèses initiales, le fait de pouvoir établir un contact visuel n'augmente pas les niveaux d'empathie et de téléprésence rapportés par les clients en séances simulées de téléthérapie. Des données d'oculométrie prélevées durant les séances montrent que les clients ne regardent pas davantage les yeux et le visage du thérapeute dans la condition avec contact visuel. Une association est toutefois observée entre le temps passé à regarder les yeux du thérapeute et l'empathie rapportée par les clients, mais seulement dans la condition avec contact visuel. Ces données indiquent ainsi que les clients sont en mesure de percevoir l'empathie en VC, que le contact visuel soit possible ou non. La thèse démontre que l'empathie peut être affectée en contexte de VC, mais également que les clients peuvent s'ajuster à l'altération de certains indices non verbaux lorsqu'ils jaugent l'empathie du thérapeute. Ces résultats sont encourageants vu l'usage grandissant de cette modalité de traitement en contexte de pandémie mondiale de COVID-19. / Teletherapy, defined as the use of a communication medium such as videoconference (VC) to conduct psychotherapy sessions at a distance, is increasingly used by therapists and clients. The use of teletherapy has seen a surge during the COVID-19 pandemic as a means to comply with the recommended social distancing measures. Though teletherapy has produced comparable outcomes to traditional, in-person therapy and is deemed a suitable modality for the establishment of therapeutic alliance, concerns remain over the possibility that empathy could be altered in teletherapy through VC. The available data, although limited, support the hypothesis that empathy could be lower in VC than in in-person sessions, but this has yet to be empirically tested. The relative loss of nonverbal cues in VC, such as the alteration of eye contact, could account for this potential discrepancy in empathy. There is therefore a need 1) to describe the influence of the VC medium on the mechanisms underlying empathy, 2) to quantitatively compare the levels of empathy in VC sessions to those in in-person sessions, and 3) to design a procedure to enhance empathy in VC sessions. These objectives are addressed in the four chapters of this thesis. The first chapter consists in the elaboration of a conceptual framework of online empathy. The conceptual framework describes the filter effect induced by online environments on nonverbal signals and its potential adverse influence on empathy in VC. Chapter 2 describes a study showing a decrease in empathy reported by therapists and clients taking part in simulated clinical sessions in VC and in-person settings. The results also reveal a significant correlation between empathy and telepresence, a term that relates to the impression for clients and therapists of being there, together in a VC interaction. The studies described in Chapters 3 and 4 aim at identifying the impact of eye contact on perceived empathy in teletherapy. Chapter 3 first describes the development of a simple methodology that facilitates eye contact in VC by decreasing the gaze angle between the webcam and the eyes of the other interactant on the screen. This methodology is employed in the experiment described in Chapter 4 to either allow or prevent eye contact from the clients' perspective during simulations of clinical sessions. The results show that, contrary to the hypothesis, facilitating eye contact in VC does not lead to higher levels of empathy and telepresence. Eye tracking data collected during the sessions showed that clients did not look more at the eyes and the face of therapists when eye contact was facilitated. However, a significant, positive correlation was observed between the time spent looking into the eyes of the therapist and the levels of empathy reported, but only in the sessions where eye contact was facilitated. These results show that clients can perceive empathy in VC, whether eye contact is altered or not. Overall, the findings of the thesis demonstrate that empathy can be altered in VC sessions but also highlight the capacity of clients to adapt to the alteration of nonverbal signals when assessing therapist empathy.
43

Prévision de la demande d'essence au Canada

Guelmbaye, Ngarsandje 23 April 2018 (has links)
Ce mémoire compare le pouvoir prédictif de 6 modèles de demande d’essence au Canada. Le modèle de tendance linéaire, le modèle à tendance quadratique, le modèle à tendance exponentielle, le modèle d’ajustement partiel ainsi que deux modèles basés sur l’approche Box-Jenkins ont été évalués. Le modèle d’ajustement partiel permet de montrer que la demande d’essence est inélastique par rapport au revenu ainsi qu’au prix. Toutefois, l’élasticité-revenu est plus forte que l’élasticité prix. Sur base de cette analyse, il est prévu qu’en 2020, au quatrième trimestre, la demande d’essence par habitant au Canada augmentera de moins d’un pourcent relativement au quatrième trimestre 2009.
44

La 3D interactive en temps réel comme aide à l'acquisition des connaissances spatiales: étude de l'influence du mode d'exploration

Mohamed-Ahmed, Ashraf 11 April 2018 (has links)
Cette recherche s’inscrit dans le cadre général de la 3D interactive en temps réel comme outil de représentation, d’aide à la conception et à la communication des idées et hypothèses de design. Un facteur, l’interaction et plus précisément la navigation dans les Environnements Virtuels (EV) 3D non immersifs est l’objet de cette recherche. Par le biais d’une approche expérimentale, l’influence de la 3D interactive en temps réel sur l’acquisition des connaissances spatiales est illustrée par l'étude du mode d’exploration dans un espace virtuel complexe. En effet, les résultats de la recherche montrent une influence positive de la 3D interactive sur la formation d’une compréhension spatiale des environnements en mode d’exploration actif. Alors qu’en mode d’exploration passif, il s’est avéré que les esquisses comportaient plus d’erreurs dans la représentation des espaces. / This research is part of the general framework of real time 3D interaction as a tool for representation, aided design and communication of design ideas. A factor, interaction and more precisely, navigation in a non immersive 3D Virtual Environment (VE), is the research subject. Using an experimental approach, the influence of real time 3D interaction on the acquisition of spatial knowledge is demonstrated, through observation of exploration modes in a complex virtual space. The research results stress a positive influence on spatial understanding through 3D interaction of visited environments during an active exploration. However, during passive exploration mode, the results revealed sketches with more spatial representations errors.
45

Évaluation de l'éco-efficacité des procédés de transformation des produits laitiers : développement d'un outil de simulation

Benoit, Scott 25 September 2018 (has links)
L’éco-efficacité est un concept qui a été spécifiquement conçu pour le monde de l’entreprise, et qui lie les performances environnementales et économiques d’un produit ou d’un service. Depuis 2012, l’éco-efficacité fait l’objet d’une méthode d’évaluation normalisée (ISO 14045) qui impose l’analyse de cycle de vie pour évaluer les impacts potentiels à l’environnement. L’évaluation de l’éco-efficacité offre ainsi au monde de l’entreprise l’opportunité de prendre des décisions non plus basées uniquement sur des égards économiques, mais prenant aussi en considération les impacts potentiels à l’environnement. Parmi les innombrables activités industrielles susceptibles de tirer profit du concept d’éco-efficacité se trouve la transformation des produits laitiers. En effet, ce secteur de l’industrie agro-alimentaire permet certes de valoriser la matière première laitière, mais exploite parallèlement une part significative des ressources naturelles. Le premier objectif de cette thèse a été de réaliser un état des lieux sur l’évolution et la mise en oeuvre du concept d’éco-efficacité dans le domaine de la transformation laitière. Une première étude a permis d’observer l’activité de transformation des produits laitiers sous une perspective de cycle de vie, et d’explorer les développements successifs du concept d’éco-efficacité dans ce domaine. Cette étude a notamment montré que la simulation de procédés présentait un potentiel intéressant pour lever les difficultés associées à l’évaluation de l’éco-efficacité selon la norme ISO 14045, soit les nécessités de disposer d’inventaires complets de flux de matière et d’énergie et d’une certaine expertise en analyse de cycle de vie. Par conséquent, le second objectif de cette thèse a été de développer un outil de simulation de procédés permettant l’évaluation de l’éco-efficacité des procédés de transformation des produits laitiers. Une seconde étude a ainsi permis le développement d’un prototype de logiciel permettant l’évaluation de l’éco-efficacité des produits laitiers. Ce prototype repose sur un simulateur de procédés spécifiquement développé pour la transformation laitière et intègre des jeux de données d’impacts potentiels à l’environnement. Ces caractéristiques lui permettent de générer des inventaires détaillés de flux de matière et d’énergie, et de procéder à l'évaluation des impacts potentiels à l’environnement, levant ainsi les difficultés identifiées lors de la première étude. Le prototype développé permet non seulement d'évaluer l’éco-efficacité des procédés modélisés, mais aussi d’identifier les opportunités d'améliorations, de comparer plusieurs scénarios de valorisation du lait cru, et d'évaluer la viabilité économique des scénarios modélisés. Cet outil a été utilisé lors d’une troisième et dernière étude, afin d’évaluer la contribution des opérations de séparation par membrane à l’éco-efficacité globale des procédés de transformation des produits laitiers. Ces opérations sont omniprésentes dans le domaine de la transformation laitière et présentent un potentiel non démontré d’amélioration de l’éco-efficacité. Trois scénarios de production de fromage Cheddar ont été comparés dans cette étude : deux intégrant des opérations de séparation par membrane à l’étape de standardisation du lait de fromagerie, et un dénué de telles opérations. Les résultats obtenus ont montré que même si l’introduction de procédés de séparation par membrane à l’étape de standardisation des laits de fromagerie permet d’augmenter significativement les rendements fromagers, elle ne permet pas d’augmenter l’éco-efficacité de cette transformation laitière. L’analyse des résultats a permis de déterminer que les potentiels d’amélioration de l’éco-efficacité par l’introduction de procédés de séparation par membranes se situaient probablement aux étapes de valorisation des sous-produits laitiers. Les travaux de cette thèse ont rencontré l’ensemble de leurs objectifs et contribuent ainsi à rendre l'évaluation de l'éco-efficacité plus accessible à l’ensemble des décideurs liés de près ou de loin à l’industrie de transformation des produits laitiers. / Eco-efficiency is a concept specifically designed for the business world and which links theenvironmental and economic performances of a product or service. Since 2012, eco-efficiency is subject to a standardised assessment (ISO 14045) which imposes life cycle analysis to conduct the assessment of the potential environmental impacts. Eco-efficiency assessment thus offers the business world the opportunity to make decisions not only based on economical criteria but also factoring in the potential environmental impacts. Among the countless industrial activities likely to benefit from the eco-efficiency concept is dairy processing. Indeed, this sector of the agri-food industry surely enables valorisation of dairy raw material but it concomitantly exploits a significant part of the natural resources. The first objective of this thesis was to conduct a state of play on the development and implementation of the ecoefficiency concept in the dairy processing field. A first study enabled to look at the dairy processing activity from a life-cycle perspective, and to investigate the successive developments of the eco-efficiency concept in this field. In particular, the study showed that process simulation presented a sound interest in overcoming the difficulties associated with eco-efficiency assessment according to the ISO 14045 standard: the need for a complete inventory of material and energy flows, and for a certain expertise in life cycle analysis. Therefore, the second objective of this thesis was to develop a process simulation tool enabling the ecoefficiency assessment of the dairy processes. A second study thus led to the development of a software prototype allowing for eco-efficiency assessment of dairy products. This prototype relies on a process simulator specifically designed for dairy processes and which includes datasets of potential environmental impacts. These features allow for both the generation of detailed inventories of material and energy flows and potential environmental impact assessments, thereby overcoming the challenges identified in the first study. The developed prototype not only allows for eco-efficiency assessments of the modelled processes but also enables identification of the improvement opportunities, comparison of multiple scenarios of raw milk valuation, and assessment of the economic viability of the modelled scenarios. This tool was used in a third and last study in order to assess the contribution of pressure driven filtration operations to the overall eco-efficiency of dairy processes. These operations are omnipresent in the dairy processing activity and hold a potential for eco-efficiency improvement which has not been yet demonstrated. Three scenarios of Cheddar cheese production were compared in this study: two integrating pressure driven filtration processes at the cheese milk standardisation stage, and one that did not include such operations. Results revealed that although introducing pressure driven filtration processes at the cheese milk standardisation stage can significantly improve the cheese yields, it does not allow for an improvement of the eco-efficiency of the cheese production process. Analysis of the results showed that t he potentials for eco-efficiency improvements in dairy processing through the introduction of pressure driven filtration operations could probably be achieved by incorporating them in the by-product valuation processes. The research work conducted within the framework of this thesis fulfilled all the different objectives set and therefore should help make eco-efficiency assessment more accessible to all the decision-makers related in one way or another to the dairy processing industry.
46

Modélisation d'un outil graphique d'aide à la compréhension de résolution de programmes logiques

Bouanane, Mohamed 20 April 2018 (has links)
Ce projet de recherche traite du domaine de l’intelligence artificielle, plus précisément de la programmation logique, un type de programmation utilisée pour concevoir des systèmes dits intelligents. Ce type de programmation est toutefois assez complexe à assimiler et il n’existe, à notre connaissance, aucun outil interactif qui permette de montrer efficacement le processus d’exécution d’un programme logique. L’objectif de cette recherche consistait donc à proposer un modèle d’outil facilitant la compréhension de la résolution d’un programme logique. Le modèle proposé permet de représenter graphiquement et dynamiquement la trace de résolution d’un programme logique. Un prototype a été construit pour valider ce modèle avec des programmes écrits en langage Prolog. L’utilisateur peut ainsi suivre les étapes d’exécution à travers l’affichage dynamique d’un arbre de dérivation. Actuellement, le modèle ne permet pas de prendre en compte des programmes écrits avec différents langages de programmation, une telle généralisation serait une bonne amélioration.
47

Contribution de l'hydrogéochimie à la compréhension des écoulements d'eaux souterraines en Outaouais, Québec, Canada

Montcoudiol, Nelly 23 April 2018 (has links)
En Outaouais, les eaux souterraines sont une ressource essentielle pour les besoins domestiques et agricoles (hors ville de Gatineau, qui utilise les eaux de surface). La région d’étude repose sur le Bouclier Canadien, fait de roches silicatées fracturées recouvertes par les sédiments résultants de la dernière glaciation-déglaciation. Dans ce contexte, améliorer les connaissances sur le fonctionnement des aquifères est vital pour une utilisation durable de la ressource. Pour atteindre cet objectif, un modèle conceptuel a été proposé résultant de l’interprétation des données géochimiques couplée à la modélisation numérique. L’altération des silicates, l’intrusion d’eau saline de l’ancienne Mer de Champlain suivie de l’échange cationique dans les argiles marines affectant les aquifères confinés ainsi que les mélanges d’eaux sont les principaux processus identifiés par une analyse statistique multivariée. A échelle locale, une signature des isotopes stables similaire à celle de la pluie actuelle et la présence de tritium indiquent des temps de résidence relativement courts dans les 100 premiers mètres de profondeur, ce qui est confirmé par la modélisation des écoulements et des âges. La présence d’hélium 4 est attribuée à la diffusion depuis des eaux plus profondes et plus âgées, résultant de la diminution de la conductivité hydraulique avec la profondeur. Des mélanges résultent de l’échantillonnage dans des puits ouverts. Dans les aquifères non confinés, les activités en 14C sont principalement le résultat de l’équilibre de l’eau de recharge avec le CO2 du sol dans un système ouvert suivi de l’altération des silicates par du CO2 fossile ou de la dissolution des carbonates en milieu fermé plutôt que de la décroissance radioactive. Finalement, la simulation des chlorures montre que les restes de la Mer de Champlain seraient présents dans les argiles marines et dans les zones moins perméables de l’aquifère confiné par rapport aux eaux caractérisés par l’échange cationique. L’étude a permis de caractériser la qualité des eaux souterraines dans la partie fracturée du bouclier canadien dans les dépôts du Quaternaire à l’échelle régionale. Les systèmes locaux d’écoulement, avec des temps de résidence courts dans la partie supérieure du roc sont essentiels et doivent être pris en compte pour évaluer la vulnérabilité des ressources en eaux souterraines. / Throughout most of the Outaouais Region, groundwater is an essential resource for both for domestic and agricultural use (except in the city of Gatineau which uses surface water). The study area lies in the Canadian Shield, and includes a fractured silicate bedrock aquifer which is covered by sediments from the last glacial-deglacial period. In this context, improving our understanding of aquifers is vital for a sustainable use of this resource. To fulfill this objective, a conceptual model was proposed based on the interpretation of geochemical data coupled to numerical modelling. Silicate weathering, seawater intrusion by the former Champlain Sea and subsequent cation exchange in marine clays affecting groundwater quality in confined aquifers, and mixing between waters of different ages are identified by a multivariate statistical analysis as the principal geochemical processes. At the local scale, a stable isotope signature similar to current precipitation and the presence of tritium indicate relatively short residence times in the first 100 m below ground surface, which was confirmed by numerical flow and age modelling. The occurrence of helium 4 is attributed to diffusion from deeper older groundwater within lower hydraulic conductivity zones. Some mixing due to sampling in open boreholes may also have occurred. In the unconfined aquifer, 14C activities appear to be the result of such as equilibration of recharge water with soil CO2 in open conditions coupled to silicate weathering by fossil CO2 or carbonate dissolution under closed conditions, rather than from radioactive decay. Finally, chloride transport simulations show that remnants of the Champlain Sea would still be found in marine clays and in the less permeable zones of the confined aquifer whereas groundwater characterised by cation exchange are found in more permeable zones. The study has helped characterize regional groundwater quality in the upper fractured zone of the Canadian Shield and in the Quaternary sediments of the Outaouais region. It has shown the importance of local scale groundwater flow systems and relatively rapid flow in the upper part of the bedrock which need to be considered when assessing the vulnerability of these regional groundwater resources.
48

Détermination des cotes de crue en présence de glace sur la Rivière Chaudière

Ladouceur, Jean-Robert 20 March 2023 (has links)
La rivière Chaudière, située au sud de la Ville de Québec, est sujette aux inondations provoquées par la formation d'embâcles. Des inondations ont été enregistrées depuis 1896 jusqu'à ce jour malgré la mise en service, en 1967, d'un ouvrage de contrôle des glaces (ICS) à 3 kilomètres en amont de la Ville de Saint-Georges-de-Beauce afin de réduire les inondations causées par la glace dans le secteur le plus à risque de la rivière Chaudière. Les inondations par embâcles demeurent donc un problème récurrent qui affecte régulièrement 8 villes le long du tronçon de 90 kilomètres en aval de l'ICS. Dans le cadre d'un programme gouvernemental d'aléas d'inondation initié par le ministère des Affaires Municipales et de l'Habitation (MAMH), un mandat pour évaluer les cotes de crues en présence de glace de la rivière Chaudière a été confié à l'Université Laval. La modélisation d'embâcles combinée à des données d'observations historiques d'embâcles est utilisée pour déterminer les niveaux d'inondation par embâcles. L'approche préconisée consiste à contrôler un modèle de simulation hydraulique fluviale, plus spécifiquement le module HEC-RAS, avec un script externe en Python pour générer une distribution Monte-Carlo (MOCA) d'évènements d'embâcles le long du secteur de la rivière à l'étude. Les paramètres mécaniques tels que l'angle de frottement, la porosité et les vitesses de contrainte de cisaillement critiques sont également attribués de manière aléatoire par le script dans une plage délimitée. Les paramètres physiques et hydrologiques attribués à chaque évènement sont choisis au hasard en fonction d'une probabilité estimée à partir des observations historiques, soit le débit calculé à l'ICS, l'emplacement de l'embâcle, la longueur de l'embâcle et les degrés-jours de gel (épaisseur de la glace). Les cotes de crues selon les périodes de retour de 2, 20, 100 et 350 ans sont alors déterminées selon une équation statistique empirique de Gringorten, suivie d'une modulation pour tenir compte des facteurs externes non considérés par MOCA. Ces cotes de crues en présence de glace sont comparées à celles en eau libre telles que déterminées par la méthode classique. Le projet démontre que les niveaux d'eau calculés en présence de glace prédominent ceux en eau libre pour les villes en amont de Saint-Joseph-de-Beauce. La combinaison des niveaux d'eau en présence de glace et en eau libre, réalisée à l'aide de l'équation de la FEMA, montre que la probabilité d'atteindre un seuil spécifique d'élévation diminue la période de retour et en conséquence augmente les probabilités reliées aux inondations. Ce mémoire est le premier travail scientifique qui présente une validation complète de l'approche hydrotechnique utilisant les valeurs in situ de débit, de DJGC et de l'emplacement et de la longueur d'embâcles pour la détermination des cotes de crue par embâcles. Les valeurs de cotes de crues calculées avec la méthode MOCA sont comparées avec les données historiques dans le secteur à l'étude de la rivière Chaudière. La présente étude met en évidence les limitations et les conditions nécessaires pour l'utilisation de cette méthode. Ce projet de recherche montre aussi pour la première fois que l'approche hydrotechnique permet de calculer des courbes fréquentielles de niveaux d'eau en présence de glace qui peuvent être utilisées à des fins réglementaires au Québec. / The Chaudière River, located south of Quebec City, is prone to seasonal ice jam flooding. As early as 1896, ice induced floods have been recorded and in 1967 an ice control structure (ICS) was constructed 3 kilometers upstream of the Town of St. Georges to reduce ice flooding events in the area most at risk of the Chaudière River. Despite the construction of the ICS, flooding caused by ice jams is still an ongoing issue that regularly affects 8 towns along this reach of 90 kilometers downstream of the ICS. As part of a governmental flood hazard program that is managed by the provincial ministère des Affaires Municipales et de l'Habitation (MAMH), the mandate of assessing ice jam flood delineation has been given to Laval University. In order to achieve this objective, ice jam modelling combined with historical data is used to determine ice jam flood levels. More specifically, the approach used is to control a river hydraulic simulation model (HEC-RAS) with an external script (MOCA) written in Python to generate a Monte-Carlo distribution of ice jam flood events along the study reach. The script polls historical data of recorded ice jam events which include flow measured at the ICS, ice jam location, ice jam length, and degree days of freezing (ice thickness). Mechanical parameters such as the angle of friction, porosity and critical shear stress velocities are also randomly assigned by the script within a delimited range. The physical and hydrological parameters assigned to each event are randomly chosen based on the historical data. The flood levels according to the return periods of 2, 20, 100, and 350 years are then determined according to an empirical statistical equation and modulated to consider external factors not considered by the MOCA. These calculated flood levels are compared with the ones obtained by open water floods as determined by the classical method. The results show that the calculated ice induce water levels predominate over open water flooding for the towns upstream of Saint-Joseph-de-Beauce. The combination of ice induced and open water levels, using the FEMA equation, show that the probability of reaching a specific elevation is reduced and thus increases the probability associated with flooding. This thesis is the first scientific work that presents the complete validity of the hydrotechnical approach using in situ flows, cumulative degree-days of freezing and ice jam length and location for the determination for ice induced flood delineation combined with a MOCA framework. Calculated flood frequency levels are compared with historical ice induced flood water levels within the studied reach, as well as the conditions and limitations for using this approach. Also, this scientific document is the first to present ice-related flood levels using the hydrotechnical approach for regulatory purposes in the Province of Québec.
49

Accélérateur à très basse latence d'un réseau de neurones sur FPGA pour simulations avec matériel dans la boucle

Barnard, Christian 17 June 2024 (has links)
Ce mémoire présente les étapes qui ont mené à la conception et l'implémentation d'un accélérateur matériel d'un réseau de neurones qui sera chargé de la modélisation d'un environnement virtuel dans un simulateur de type "Hardware-in-the-Loop" (HIL). Ce module aura pour but d'offrir un environnement crédible à l'unité de contrôle électronique (ECU) testée sous la forme des signaux d'entrée requis par celle-ci. Cette crédibilité devra être reflétée autant au niveau de l'intégrité des prédictions qu'à celui de la latence de réponse aux actions de l'ECU. Ainsi, le modèle d'apprentissage machine sélectionné devra avoir une charge de calcul relativement légère à l'inférence. Puisque le système désiré devra posséder un haut niveau de portabilité et de réutilisabilité pour permettre l'intégration de différents ECU, le modèle devra être entraînable avec une quantité de données limitée. Suivant ces critères et restrictions, plusieurs architectures de réseaux de neurones furent initialement sélectionnées selon leur succès dans la littérature dans des contextes similaires à celui présenté. Les réseaux de type LSTM, GRU, TCN et NARX furent évalués et comparés sur une tâche de régression de séquences nécessitant la génération de signaux représentant les dynamiques d'un véhicule en freinage équipé d'un système ABS. Le modèle TCN fut capable de démontrer les meilleurs résultats sur la tâche en question comparativement aux autres réseaux. Une technique de régularisation utilisant la différentiation numérique des prédictions fut conçue et appliquée à l'entraînement du modèle afin de promouvoir la génération de signaux plus crédibles. Le réseau TCN fut finalement implémenté sur un accélérateur matériel utilisant les technologies FPGA afin de minimiser la latence des prédictions dans le système HIL. Le produit final permet d'offrir une prédiction du prochain état de l'environnement virtuel après 4.45 μs de latence. Cette valeur ne représente que l'inférence du modèle et omet la latence de communication et de conversion des signaux entre le module de prédiction et l'ECU testé. / This thesis presents the design and implementation of a hardware accelerator for a neural network that will be responsible for modeling a virtual environment in a Hardwarein- the-Loop simulator (HIL). This module aims to provide a credible environment to the electronic control unit (ECU) under test in the form of the input signals required by it. This credibility is reflected both in the integrity of the predictions and in the response latency to ECU actions. Thus, the selected machine learning model has a relatively light computational load at inference. Since the desired system possesses a high level of portability and reusability to allow the integration of different ECUs, the model remains trainable with limited data. Following these criteria and restrictions, several neural network architectures were initially selected according to their success in the literature in contexts similar to the one presented. LSTM, GRU, TCN and NARX architectures were evaluated and compared on a sequence regression task requiring generating signals representing the dynamics of a braking vehicle equipped with an ABS. The TCN model demonstrated the best results on the task in question compared to the other networks. A regularization technique using numerical differentiation of predictions was designed and applied to model training to promote the generation of more believable signals. The TCN network was finally implemented on a hardware accelerator using FPGA technologies to minimize the latency of the predictions in the HIL system. The final product makes it possible to offer a prediction of the next state of the virtual environment after 4.45 μs of latency. This value only represents the model inference and omits the communication and signal conversion latency between the prediction module and the ECU under test.
50

Développement d'un outil de simulation par Monte Carlo du rayonnement diffusé en tomodensitométrie

Saucier, Marie Annie 25 September 2018 (has links)
L’objectif de ce projet est de créer un programme logiciel permettant de corriger le rayonnement diffusé dans une acquisition tomodensitométrique à géométrie conique. Pour ce faire, une simulation Monte Carlo est utilisée pour estimer le rayonnement diffusé, ce qui consiste à reproduire numériquement un examen en tomodensitométrie. Ce projet a été divisé en deux sections : la validation de la physique pour ce programme spécifique et le développement logiciel du programme. La validation consistait à reproduire les résultats obtenus avec Geant4 avec GPUMCD. Geant4, la plateforme de référence, et GPUMCD, la plateforme à l’étude, sont deux librairies logicielles pour la simulation numérique du transport de particules à travers la matière utilisant les calculs Monte Carlo. Les éléments étudiés sont les sections efficaces, les matériaux, l’algorithme de diffusion Rayleigh et l’algorithme de diffusion Compton. Bien que quelques erreurs persistent dans la physique de GPUMCD, une nette amélioration des résultats entre GPUMCD et Geant4 a été obtenue. La différence entre les deux simulations qui était supérieure à 100% pour une géométrie complexe est passée sous la barre du 10%. De plus, il a été possible d’identifier quelques autres causes telles qu’une différence dans la définition des modèles physiques, et ce, plus précisément dans l’algorithme de diffusion Compton. En ce qui concerne la seconde partie du projet, bien que la correction n’a pu être effectuée pour une reconstruction, tous les éléments ont été implémentés pour estimer le rayonnement diffusé pour une géométrie de patient provenant de données cliniques d’une reconstruction tomodensitométrique. Les paramètres et les stratégies étudiés dans le but d’optimiser le temps de calculs tout en conservant la justesse des résultats sont : le traçage de rayons, le lissage gaussien du rayonnement diffusé, la réduction du nombre de pixels sur le détecteur, l’interpolation des projections, la symétrie et la réduction de nombre de voxels dans le patient. De plus, en considérant une correction de haute qualité, soit 2% d’erreur et moins par stratégie implémentée, on obtient un temps de simulation de moins de 2 minutes sur une GPU Nvidia Titan X. Pour une simulation dite de basse qualité, soit 5% d’erreur et moins par stratégie implémentée, on obtient un temps d’exécution de moins de 15 s par simulation. Cela correspond à des temps cliniquement acceptables si le patient doit attendre sur la table. / The goal of this project is to develop an application to correct the scattered radiation in a cone beam computed tomography scan (CBCT). A Monte Carlo simulation is used to estimate the scattered radiation which is a numerical replication of a CBCT acquisition. This project has been divided into two sections : the validation of the physics for this specific application and the development of the application. The validation consisted in reproducing the results obtained with Geant4 in GPUMCD. Geant4 is the reference platform and GPUMCD is the platform studied. Both are Monte Carlo simulators of the passage of particles through matter.The elements studied are the cross sections, the materials, the Rayleigh scattering algorithm and the Compton scattering algorithm. Although some errors are still present, a great improvement of the results between GPUMCD and Geant4 was obtained. The difference between the two simulations was greater than 100 % for complex geometries and dropped below 10% after corrections of the physics. In addition, it was possible to identify some other problems such as a theoretical difference in the Compton scattering algorithms. Regarding the second part of the project, although the correction could not be implemented in a reconstruction, all elements are present to estimate the scattered radiation for an actual CBCT reconstruction. The parameters and strategies studied in order to optimize the computation time while maintaining the accuracy of the results are : ray tracing, Gaussian smoothing of scattered radiation, reduction of the number of pixels on the detector, interpolation of between the simulated projections, symmetry and reduction of number of voxels in the patient. In addition, considering a correction of high quality is 2 % error and less per implemented strategy, a simulation time of less than 2 minutes is obtained. For a low quality simulation (5% error and less per parameter), a simulation time of less than 15 seconds per simulation was obtained. Those are clinically acceptable simulation times.

Page generated in 0.162 seconds