• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 80
  • 20
  • 1
  • Tagged with
  • 101
  • 101
  • 50
  • 31
  • 28
  • 16
  • 12
  • 12
  • 10
  • 9
  • 9
  • 9
  • 8
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Modélisation d'un outil graphique d'aide à la compréhension de résolution de programmes logiques

Bouanane, Mohamed 20 April 2018 (has links)
Ce projet de recherche traite du domaine de l’intelligence artificielle, plus précisément de la programmation logique, un type de programmation utilisée pour concevoir des systèmes dits intelligents. Ce type de programmation est toutefois assez complexe à assimiler et il n’existe, à notre connaissance, aucun outil interactif qui permette de montrer efficacement le processus d’exécution d’un programme logique. L’objectif de cette recherche consistait donc à proposer un modèle d’outil facilitant la compréhension de la résolution d’un programme logique. Le modèle proposé permet de représenter graphiquement et dynamiquement la trace de résolution d’un programme logique. Un prototype a été construit pour valider ce modèle avec des programmes écrits en langage Prolog. L’utilisateur peut ainsi suivre les étapes d’exécution à travers l’affichage dynamique d’un arbre de dérivation. Actuellement, le modèle ne permet pas de prendre en compte des programmes écrits avec différents langages de programmation, une telle généralisation serait une bonne amélioration.
52

Synthèse de canaux de Rice et de Raleigh en chambre de réverbération

Amador, Emmanuel 13 April 2018 (has links)
Les chambres de réverbération, originellement conçues pour la compatibilité électromagnétique, connaissent un nouvel essor depuis quelques années. Elles sont de plus en plus utilisées pour simuler des canaux de communication. L'objectif fondamental de ce travail de recherche est la conception et la fabrication d 'une chambre de réverbération de faible encombrement pour récréer de manière physique des canaux de communi~ation à partir de 800 MHz. Un tel dispositif est un atout précieux pour l'étude et le développement de systèmes de communication mobiles, car il permet dans un laboratoire de confronter le système de communication à des conditions comparables aux conditions réelles et facilement reproductibles. L'utilisation d 'une chambre de réverbération permet de s'affranchir des défauts des générateurs de canaux électroniques dont le débit est souvent limité et dont le caractère aléatoire est souvent très discutable. La chambre de réverbération devient donc un outil de choix pour le développement de systèmes mobiles à haut débit. Ce mémoire présente succinctement les canaux de communications multitrajets et les chambres de réverbération et aborde la conception de notre chambre de réverbération à travers des considérations théoriques et des simulations numériques. Finalement les performances de notre chambre de réverbération sont présentées et analysées.
53

The value of hydrological information in multireservoir systems operation

Pina Fulano, Jasson 21 September 2024 (has links)
La gestion optimale d’un système hydroélectrique composé de plusieurs réservoirs est un problème multi-étapes complexe de prise de décision impliquant, entre autres, (i) un compromis entre les conséquences immédiates et futures d’une décision, (ii) des risques et des incertitudes importantes, et (iii) de multiple objectifs et contraintes opérationnelles. Elle est souvent formulée comme un problème d’optimisation, mais il n’existe pas, à ce jour, de technique de référence même si la programmation dynamique (DP) a été souvent utilisée. La formulation stochastique de DP (SDP) permet la prise en compte explicite de l’incertitude entourant les apports hydrologiques futurs. Différentes approches ont été développées pour incorporer des informations hydrologiques et climatiques autres que les apports. Ces études ont révélé un potentiel d’amélioration des politiques de gestion proposées par les formulations SDP. Cependant, ces formulations sont applicables aux systèmes de petites tailles en raison de la célèbre « malédiction de la dimensionnalité ». La programmation dynamique stochastique duale (SDDP) est une extension de SDP développée dans les années 90. Elle est l’une des rares solutions algorithmiques utilisées pour déterminer les politiques de gestion des systèmes hydroélectriques de grande taille. Dans SDDP, l’incertitude hydrologique est capturée à l’aide d’un modèle autorégressif avec corrélation spatiale des résidus. Ce modèle analytique permet d’obtenir certains des paramètres nécessaires à l’implémentation de la technique d’optimisation. En pratique, les apports hydrologiques peuvent être influencés par d’autres variables observables, telles que l’équivalent de neige en eau et / ou la température de la surface des océans. La prise en compte de ces variables, appelées variables exogènes, permet de mieux décrire les processus hydrologiques et donc d’améliorer les politiques de gestion des réservoirs. L’objectif principal de ce doctorat est d’évaluer la valeur économique des politiques de gestion proposées par SDDP et ce pour diverses informations hydro-climatiques. En partant d’un modèle SDDP dans lequel la modélisation hydrologique est limitée aux processus Makoviens, la première activité de recherche a consisté à augmenter l’ordre du modèle autorégressif et à adapter la formulation SDDP. La seconde activité fut dédiée à l’incorporation de différentes variables hydrologiques exogènes dans l’algorithme SDDP. Le système hydroélectrique de Rio Tinto (RT) situé dans le bassin du fleuve Saguenay-Lac-Saint-Jean fut utilisé comme cas d’étude. Étant donné que ce système n’est pas capable de produire la totalité de l’énergie demandée par les fonderies pour assurer pleinement la production d’aluminium, le modèle SDDP a été modifié de manière à considérer les décisions de gestion des contrats avec Hydro Québec. Le résultat final est un système d’aide à la décision pour la gestion d’un large portefeuille d’actifs physiques et financiers en utilisant diverses informations hydro-climatiques. Les résultats globaux révèlent les gains de production d’énergie auxquels les opérateurs peuvent s’attendre lorsque d’autres variables hydrologiques sont incluses dans le vecteur des variables d’état de SDDP. / The optimal operation of a multireservoir hydroelectric system is a complex, multistage, stochastic decision-making problem involving, among others, (i) a trade-off between immediate and future consequences of a decision, (ii) considerable risks and uncertainties, and (iii) multiple objectives and operational constraints. The reservoir operation problem is often formulated as an optimization problem but not a single optimization approach/algorithm exists. Dynamic programming (DP) has been the most popular optimization technique applied to solve the optimization problem. The stochastic formulation of DP (SDP) can be performed by explicitly considering streamflow uncertainty in the DP recursive equation. Different approaches to incorporate more hydrologic and climatic information have been developed and have revealed the potential to enhance SDP- derived policies. However, all these techniques are limited to small-scale systems due to the so-called curse of dimensionality. Stochastic Dual Dynamic Programming (SDDP), an extension of the traditional SDP developed in the 90ies, is one of the few algorithmic solutions used to determine the operating policies of large-scale hydropower systems. In SDDP the hydrologic uncertainty is captured through a multi-site periodic autoregressive model. This analytical linear model is required to derive some of the parameters needed to implement the optimization technique. In practice, reservoir inflows can be affected by other observable variables, such snow water equivalent and/or sea surface temperature. These variables, called exogenous variables, can better describe the hydrologic processes, and therefore enhance reservoir operating policies. The main objective of this PhD is to assess the economic value of SDDP-derived operating policies in large-scale water systems using various hydro-climatic information. The first task focuses on the incorporation of the multi-lag autocorrelation of the hydrologic variables in the SDDP algorithm. Afterwards, the second task is devoted to the incorporation of different exogenous hydrologic variables. The hydroelectric system of Rio Tinto (RT) located in the Saguenay-Lac-Saint-Jean River Basin is used as case study. Since, RT’s hydropower system is not able to produce the entire amount of energy demanded at the smelters to fully assure the aluminum production, a portfolio of energy contacts with Hydro-Québec is available. Eventually, we end up with a decision support system for the management of a large portfolio of physical and financial assets using various hydro-climatic information. The overall results reveal the extent of the gains in energy production that the operators can expect as more hydrologic variables are included in the state-space vector.
54

Le transport intrahospitalier : conception et développement d'un modèle de simulation

Painchaud, Maxime 11 December 2024 (has links)
Afin de supporter les différentes activités au sein d’un centre hospitalier, le département de logistique est primordial pour offrir un service de qualité. Plus particulièrement, un service de brancarderie est nécessaire afin d’acheminer les patients non autonomes ou du matériel aux différentes unités de soins. La planification de ces activités de transport présente d’importants défis, car elle s’opère dans un environnement dynamique et imprévisible. En plus, l’aspect humain des transports apporte son lot de complication. Ce document traitera de la problématique du transport intrahospitalier au Centre Hospitalier Universitaire de Sherbrooke (CHUS). Cet établissement de santé coordonne ses activités de transports par le biais d’un système centralisé affectant des requêtes de transports aux différents brancardiers. L’outil de simulation va permettre de reproduire les flux à l’intérieur d’un établissement cible. Ensuite, le comportement du modèle de simulation sera mesuré et analysé lorsque des modifications au niveau des différents paramètres sont apportées.
55

L'empathie et la vidéoconférence en séances simulées de téléthérapie

Grondin, Frédéric 13 December 2023 (has links)
La téléthérapie, soit l'offre de soins en psychothérapie à l'aide de moyens de communication comme la vidéoconférence (VC), est une modalité de traitement de plus en plus utilisée. Bien que la recherche montre que cette modalité soit aussi efficace que les suivis en présentiel et qu'elle permette la création de l'alliance thérapeutique avec les clients, des préoccupations subsistent quant à la possibilité que l'empathie soit impactée dans les suivis de téléthérapie par VC. Les quelques données disponibles indiquent que l'empathie ressentie par les thérapeutes et perçue par les clients pourrait être moindre en VC qu'en présentiel, ce qui n'a pas encore été testé expérimentalement. Cet écart d'empathie proviendrait de la perte relative de certains indices non verbaux en VC, notamment du contact visuel. Considérant que l'empathie constitue un prédicteur de l'issue thérapeutique, il importe 1) d'élucider les mécanismes propres au contexte de VC qui influencent l'empathie, 2) de tester quantitativement la présence d'une différence d'empathie entre les séances en VC et celles en présentiel et 3) de développer des méthodes par lesquelles optimiser l'empathie en téléthérapie. Ces objectifs sont abordés par l'entremise des quatre chapitres de la thèse. Le premier chapitre aborde le développement d'un cadre conceptuel rendant compte de l'effet de filtre présent dans un contexte de communication virtuelle et du probable impact délétère de cet effet de filtre sur l'empathie en téléthérapie. Le chapitre 2, au moyen de deux études, montre que les niveaux d'empathie ressentie et perçue lors de séances simulées de thérapie sont moins élevés en VC qu'en présentiel. Le chapitre 2 identifie également que certains éléments de la téléprésence, soit l'impression pour les thérapeutes et les clients d'être ensemble durant l'appel en VC, corrèlent avec l'empathie rapportée par les thérapeutes et les clients. Les chapitres 3 et 4 investiguent l'effet du contact visuel sur l'empathie perçue en téléthérapie. Le chapitre 3 décrit d'abord le développement d'une méthodologie simple permettant de préserver la perception de contact visuel en diminuant l'angle de regard situé entre la caméra web et les yeux de l'interlocuteur sur l'écran d'ordinateur. Le chapitre 4 reprend cette méthodologie pour créer deux conditions expérimentales, avec ou sans contact visuel en VC. Les résultats montrent que, contrairement aux hypothèses initiales, le fait de pouvoir établir un contact visuel n'augmente pas les niveaux d'empathie et de téléprésence rapportés par les clients en séances simulées de téléthérapie. Des données d'oculométrie prélevées durant les séances montrent que les clients ne regardent pas davantage les yeux et le visage du thérapeute dans la condition avec contact visuel. Une association est toutefois observée entre le temps passé à regarder les yeux du thérapeute et l'empathie rapportée par les clients, mais seulement dans la condition avec contact visuel. Ces données indiquent ainsi que les clients sont en mesure de percevoir l'empathie en VC, que le contact visuel soit possible ou non. La thèse démontre que l'empathie peut être affectée en contexte de VC, mais également que les clients peuvent s'ajuster à l'altération de certains indices non verbaux lorsqu'ils jaugent l'empathie du thérapeute. Ces résultats sont encourageants vu l'usage grandissant de cette modalité de traitement en contexte de pandémie mondiale de COVID-19. / Teletherapy, defined as the use of a communication medium such as videoconference (VC) to conduct psychotherapy sessions at a distance, is increasingly used by therapists and clients. The use of teletherapy has seen a surge during the COVID-19 pandemic as a means to comply with the recommended social distancing measures. Though teletherapy has produced comparable outcomes to traditional, in-person therapy and is deemed a suitable modality for the establishment of therapeutic alliance, concerns remain over the possibility that empathy could be altered in teletherapy through VC. The available data, although limited, support the hypothesis that empathy could be lower in VC than in in-person sessions, but this has yet to be empirically tested. The relative loss of nonverbal cues in VC, such as the alteration of eye contact, could account for this potential discrepancy in empathy. There is therefore a need 1) to describe the influence of the VC medium on the mechanisms underlying empathy, 2) to quantitatively compare the levels of empathy in VC sessions to those in in-person sessions, and 3) to design a procedure to enhance empathy in VC sessions. These objectives are addressed in the four chapters of this thesis. The first chapter consists in the elaboration of a conceptual framework of online empathy. The conceptual framework describes the filter effect induced by online environments on nonverbal signals and its potential adverse influence on empathy in VC. Chapter 2 describes a study showing a decrease in empathy reported by therapists and clients taking part in simulated clinical sessions in VC and in-person settings. The results also reveal a significant correlation between empathy and telepresence, a term that relates to the impression for clients and therapists of being there, together in a VC interaction. The studies described in Chapters 3 and 4 aim at identifying the impact of eye contact on perceived empathy in teletherapy. Chapter 3 first describes the development of a simple methodology that facilitates eye contact in VC by decreasing the gaze angle between the webcam and the eyes of the other interactant on the screen. This methodology is employed in the experiment described in Chapter 4 to either allow or prevent eye contact from the clients' perspective during simulations of clinical sessions. The results show that, contrary to the hypothesis, facilitating eye contact in VC does not lead to higher levels of empathy and telepresence. Eye tracking data collected during the sessions showed that clients did not look more at the eyes and the face of therapists when eye contact was facilitated. However, a significant, positive correlation was observed between the time spent looking into the eyes of the therapist and the levels of empathy reported, but only in the sessions where eye contact was facilitated. These results show that clients can perceive empathy in VC, whether eye contact is altered or not. Overall, the findings of the thesis demonstrate that empathy can be altered in VC sessions but also highlight the capacity of clients to adapt to the alteration of nonverbal signals when assessing therapist empathy.
56

Prévision de la demande d'essence au Canada

Guelmbaye, Ngarsandje 23 April 2018 (has links)
Ce mémoire compare le pouvoir prédictif de 6 modèles de demande d’essence au Canada. Le modèle de tendance linéaire, le modèle à tendance quadratique, le modèle à tendance exponentielle, le modèle d’ajustement partiel ainsi que deux modèles basés sur l’approche Box-Jenkins ont été évalués. Le modèle d’ajustement partiel permet de montrer que la demande d’essence est inélastique par rapport au revenu ainsi qu’au prix. Toutefois, l’élasticité-revenu est plus forte que l’élasticité prix. Sur base de cette analyse, il est prévu qu’en 2020, au quatrième trimestre, la demande d’essence par habitant au Canada augmentera de moins d’un pourcent relativement au quatrième trimestre 2009.
57

Prédire le temps de trajet à l'aide des méthodes d'apprentissage profond

Lassakeur, Imad Eddine 07 June 2024 (has links)
Avec l'urbanisation croissante et l'augmentation des flux de trafic, les villes font face à des défis majeurs de congestion, de pollution, et de réduction de la qualité de vie. Comprendre et prédire les durées de trajet devient donc essentiel pour optimiser la mobilité urbaine et améliorer l'expérience quotidienne des citadins. Dans ce projet, nous avons adapté et expérimenté une méthode novatrice pour la prédiction des temps de trajet, combinant l'apprentissage automatique avec une analyse approfondie des données de circulation. Notre étude a débuté par un état de l'art des méthodes existantes, passant des modèles empiriques aux techniques d'intelligence artificielle avancées, et a mis en évidence les avantages des modèles hybrides. Nous avons conçu un processus détaillé qui commence par la collecte de données diverses, y compris des historiques de trafic, des informations structurelles des routes, et des conditions météorologiques. Ces données ont été traitées et analysées par segments pour souligner la nécessité d'approches localisées dans la prédiction. Notre application pratique sur le terrain urbain complexe de la ville de Québec a utilisé des données issues de Google Maps, OpenStreetMaps et WeatherEnvironment. Elle a prouvé l'efficacité d'un modèle hybride combinant des réseaux de neurones récurrents (GRU) et XGBoost. Ce modèle a démontré des performances supérieures par rapport aux méthodes traditionnelles, offrant des prédictions de temps de trajet plus précises et fiables. Les résultats ont également validé l'importance de l'analyse segmentée des parcours et la pertinence de sélectionner des caractéristiques influentes. Cette recherche contribue significativement au domaine de la gestion de la mobilité urbaine, ouvrant des perspectives pour l'optimisation des systèmes de navigation intelligents et la planification efficace du trafic. L'extension de cette méthodologie à d'autres contextes urbains et l'intégration de données en temps réel offrent des avenues prometteuses pour des recherches futures, visant à rendre nos villes plus intelligentes, durables et agréables pour leurs résidents. / With increasing urbanization and rising traffic flows, cities face major challenges including congestion, pollution, and reduced quality of life. Understanding and predicting travel times is thus crucial for optimizing urban mobility and enhancing the daily experience of city dwellers. In this project, we adapted and experimented with an innovative method for predicting travel times, combining machine learning with a thorough analysis of traffic data. Our study began with a state-of-the-art review of existing methods, ranging from empirical models to advanced artificial intelligence techniques, highlighting the benefits of hybrid models. We designed a detailed process starting with the collection of various data, including traffic history, road structural information, and weather conditions. These data were processed and analyzed by segments to underscore the need for localized approaches in prediction. Our practical application in the complex urban terrain of Quebec City used data from Google Maps, OpenStreetMaps, and WeatherEnvironment. It proved the effectiveness of a hybrid model combining recurrent neural networks (GRU) and XGBoost. This model demonstrated superior performance compared to traditional methods, providing more accurate and reliable travel time predictions. The results also validated the importance of segmented analysis of routes and the relevance of selecting influential features. This research significantly contributes to the field of urban mobility management, opening perspectives for optimizing intelligent navigation systems and efficient traffic planning. Extending this methodology to other urban contexts and integrating real-time data offers promising avenues for future research aimed at making our cities smarter, more sustainable, and more enjoyable for their residents.
58

Développement d'un outil de simulation par Monte Carlo du rayonnement diffusé en tomodensitométrie

Saucier, Marie Annie 04 January 2025 (has links)
L’objectif de ce projet est de créer un programme logiciel permettant de corriger le rayonnement diffusé dans une acquisition tomodensitométrique à géométrie conique. Pour ce faire, une simulation Monte Carlo est utilisée pour estimer le rayonnement diffusé, ce qui consiste à reproduire numériquement un examen en tomodensitométrie. Ce projet a été divisé en deux sections : la validation de la physique pour ce programme spécifique et le développement logiciel du programme. La validation consistait à reproduire les résultats obtenus avec Geant4 avec GPUMCD. Geant4, la plateforme de référence, et GPUMCD, la plateforme à l’étude, sont deux librairies logicielles pour la simulation numérique du transport de particules à travers la matière utilisant les calculs Monte Carlo. Les éléments étudiés sont les sections efficaces, les matériaux, l’algorithme de diffusion Rayleigh et l’algorithme de diffusion Compton. Bien que quelques erreurs persistent dans la physique de GPUMCD, une nette amélioration des résultats entre GPUMCD et Geant4 a été obtenue. La différence entre les deux simulations qui était supérieure à 100% pour une géométrie complexe est passée sous la barre du 10%. De plus, il a été possible d’identifier quelques autres causes telles qu’une différence dans la définition des modèles physiques, et ce, plus précisément dans l’algorithme de diffusion Compton. En ce qui concerne la seconde partie du projet, bien que la correction n’a pu être effectuée pour une reconstruction, tous les éléments ont été implémentés pour estimer le rayonnement diffusé pour une géométrie de patient provenant de données cliniques d’une reconstruction tomodensitométrique. Les paramètres et les stratégies étudiés dans le but d’optimiser le temps de calculs tout en conservant la justesse des résultats sont : le traçage de rayons, le lissage gaussien du rayonnement diffusé, la réduction du nombre de pixels sur le détecteur, l’interpolation des projections, la symétrie et la réduction de nombre de voxels dans le patient. De plus, en considérant une correction de haute qualité, soit 2% d’erreur et moins par stratégie implémentée, on obtient un temps de simulation de moins de 2 minutes sur une GPU Nvidia Titan X. Pour une simulation dite de basse qualité, soit 5% d’erreur et moins par stratégie implémentée, on obtient un temps d’exécution de moins de 15 s par simulation. Cela correspond à des temps cliniquement acceptables si le patient doit attendre sur la table. / The goal of this project is to develop an application to correct the scattered radiation in a cone beam computed tomography scan (CBCT). A Monte Carlo simulation is used to estimate the scattered radiation which is a numerical replication of a CBCT acquisition. This project has been divided into two sections : the validation of the physics for this specific application and the development of the application. The validation consisted in reproducing the results obtained with Geant4 in GPUMCD. Geant4 is the reference platform and GPUMCD is the platform studied. Both are Monte Carlo simulators of the passage of particles through matter.The elements studied are the cross sections, the materials, the Rayleigh scattering algorithm and the Compton scattering algorithm. Although some errors are still present, a great improvement of the results between GPUMCD and Geant4 was obtained. The difference between the two simulations was greater than 100 % for complex geometries and dropped below 10% after corrections of the physics. In addition, it was possible to identify some other problems such as a theoretical difference in the Compton scattering algorithms. Regarding the second part of the project, although the correction could not be implemented in a reconstruction, all elements are present to estimate the scattered radiation for an actual CBCT reconstruction. The parameters and strategies studied in order to optimize the computation time while maintaining the accuracy of the results are : ray tracing, Gaussian smoothing of scattered radiation, reduction of the number of pixels on the detector, interpolation of between the simulated projections, symmetry and reduction of number of voxels in the patient. In addition, considering a correction of high quality is 2 % error and less per implemented strategy, a simulation time of less than 2 minutes is obtained. For a low quality simulation (5% error and less per parameter), a simulation time of less than 15 seconds per simulation was obtained. Those are clinically acceptable simulation times.
59

Immersive visualization of light and heat for biophilic arctic architecture

Tabatabaeifard, Seyed Amin 03 March 2025 (has links)
Cette thèse présente un cadre de visualisation immersif développé pour améliorer le bien-être des occupants dans les environnements bâtis de l'Arctique. La thèse préconise la biophilie dans les espaces arctiques par la visualisation des ambiances intérieures et le ratio d'accès à la vue extérieure dans le champ de vision de 360°. En outre, elle contribue au bien-être photobiologique en incorporant des techniques basées sur l'image pour analyser les conditions d'éclairage intégratives, tout en tenant compte de la distribution de la température sur les surfaces intérieures. Grâce au développement d'un processus de capture holistique et à la présentation d'informations multivariantes dans des vues immersives à 360°, la thèse aborde l'accessibilité à l'éloignement des régions arctiques pour les explorations multidisciplinaires des ambiances intérieures. Elle sert les communautés arctiques en facilitant l'interprétation des effets environnementaux pour les architectes et les décideurs du monde entier grâce à une visualisation complète. Dans l'architecture Arctique, une approche biophilique de la conception des fenêtres se heurte à des difficultés liées à des considérations climatiques telles que des hivers extrêmement froids et prolongés et des photopériodes arctiques variées. Ces conditions climatiques contribuent à générer des effets complexes liés à la lumière et à la chaleur dans les espaces intérieurs. Ces attributs intérieurs non visibles comprennent les effets d'éclairage intégrés sur les occupants et les variations de température sur les surfaces intérieures. La représentation de ces effets non visibles permet d'éclairer la prise de décision pour développer une conception biophilique dans les environnements arctiques. Cependant, l'applicabilité de la représentation des conditions d'éclairage et de température basée sur la simulation est limitée dans de tels environnements, étant donné la variabilité des paramètres influençant la perception des ambiances par rapport aux références humaines et architecturales. En outre, la réalisation d'évaluations environnementales in-situ dans les espaces intérieurs de l'Arctique présente plusieurs défis. Il s'agit notamment de l'accessibilité et de la complexité des techniques de mesure standard et, plus important encore, de l'interprétabilité des résultats concernant les causes et les effets architecturaux et environnementaux. Cette thèse aborde ces limitations en élargissant une méthodologie compréhensive, établissant des représentations environnementales à travers des évaluations in-situ dans des directions de vision à 360°. L'adaptabilité de la méthodologie aux technologies de visualisation immersive, telles que la réalité virtuelle, et sa compatibilité avec les techniques d'évaluation de la relation humain-environnement la rendent très pertinente pour le domaine plus large de l'architecture et des sciences de l'environnement. Des applications visées en architecture au-delà de l'amélioration de l'éclairage, englobant des considérations liées au confort et à l'efficacité énergétique, en particulier dans les conditions climatiques extrêmes de l'Arctique. La thèse présente un système de capture économique conçu pour les environnements immersifs à 360°, qui fournit des informations sur l'éclairage intégré, la température de surface et le ratio de l'accès à une vue sur extérieur. Explorant les possibilités d'application des paramètres photobiologiques dans les normes de bâtiment et leur représentation par des mesures basées sur l'image, la méthodologie aborde l'accessibilité et l'aspect pratique de la représentation de conditions environnementales non visibles dans des espaces intérieurs de l'Arctique situés dans des régions éloignées. La recherche développe une visualisation immersive holistique de la lumière et de la chaleur basée sur l'image pour une architecture Arctique biophilique, soulignant la nature informative de la méthode proposée à des fins de recherche et de pédagogie. La thèse présente une nouvelle approche de la visualisation des environnements architecturaux en ce quiconcerne la direction de la vue, l'amélioration de la détection de l'éclairage favourable à la santé et l'information sur les conditions thermiques à l'intérieur des espaces en fonction de la temporalité. Dans les phases finales de la thèse, l'attention se porte sur l'évolution de la technique de capture immersive aspect du design en co-création avec les communautés éloignées. En outre, la thèse encourage la recherche future en menant des expériences qui explorent la pertinence de la méthode pour les évaluations dans un grand nombre d'espaces intérieurs. Elle ouvre la voie à des avancées dans l'évaluation environnementale post-occupation, en élargissant sa pertinence pour les rénovations biophiliques dans les contextes climatiques de l'Arctique. / This thesis introduces an immersive visualization framework designed to enhance the well-being of occupants in Arctic built environments. The thesis advocates for Biophilia in Arctic spaces through visualization of indoor ambiences, and the outdoor view access ratio within the 360° field of view. Additionally, it contributes to photobiological well-being by incorporating image-based techniques for analysing integrative lighting conditions, while considering temperature distributions on interior surfaces. Through the development of a holistic capturing process and the presentation of multivariant information in immersive 360° views, the thesis addresses accessibility to the remoteness of Arctic regions for multidisciplinary explorations of indoor ambiences. It serves Arctic communities by facilitating the interpretation of environmental effects for architects and decision-makers worldwide through comprehensive visualization. In Arctic architecture, a biophilic design approach in window design encounters challenges due to climate considerations such as prolonged extreme cold winters and diverse Arctic photoperiods. Such climate conditions contribute to complex effects related to light and heat experienced within indoor environments. These non-visible indoor attributes include integrative lighting effects on occupants, and temperature variation on interior surfaces. Representing these non-visible effects informs decision-making for developing a biophilic design in Arctic environments. However, the applicability of simulation-based representation of lighting and thermal conditions is limited in such environments, given the variability of parameters influencing the perception of ambiences in relation to human and architectural references. Additionally, conducting in-situ environmental assessments in Arctic interiors presents several challenges. These include the accessibility and complexity of standard measurement techniques, and, more importantly, the interpretability of results concerning the architectural and environmental causes and effects. This thesis addresses these limitations by developing a comprehensive methodology, establishing environmental representations through in-situ assessments in 360° viewing directions. The methodology's adaptability to immersive visualization technologies, such as virtual reality, and its compatibility with human-environment assessment techniques make it highly relevant to the broader field of architecture and environmental sciences. This extends beyond lighting enhancement, encompassing considerations related to comfort and energy efficiency, especially in critical environmental conditions of the Arctic. The thesis introduces a low-cost capturing system designed for 360° immersive environments, providing all-view-direction information regarding integrative lighting, surface temperature, and the ratio of view access to outdoors in 360 degrees. Exploring opportunities in the application of Photobiological thresholds in building standards and their representation through image-based measurements, the methodology addresses accessibility and practicality in representing non-visible ambiences in remote Arctic indoors. Underscoring the informative nature of the proposed method for research and pedagogic purposes, it offers a holistic image-based immersive visualization of light and heat for biophilic Arctic architecture. The thesis results in introducing a new approach in visualizing architectural environments regarding view direction, improving the detection of health-supportive lighting and informing thermal conditions within the spaces in daily timespan. In the concluding phases of this study, attention turns to the evolution of the immersive capturing technique as a key aspect. Additionally, the thesis propels future research by conducting experiments that probe into the method's suitability for evaluations across a large number of indoor spaces. It establishes pathways for advancements in post occupancy environmental assessment, expanding its relevance to biophilic retrofits in Arctic climate contexts.
60

Accélérateur à très basse latence d'un réseau de neurones sur FPGA pour simulations avec matériel dans la boucle

Barnard, Christian 17 June 2024 (has links)
Ce mémoire présente les étapes qui ont mené à la conception et l'implémentation d'un accélérateur matériel d'un réseau de neurones qui sera chargé de la modélisation d'un environnement virtuel dans un simulateur de type "Hardware-in-the-Loop" (HIL). Ce module aura pour but d'offrir un environnement crédible à l'unité de contrôle électronique (ECU) testée sous la forme des signaux d'entrée requis par celle-ci. Cette crédibilité devra être reflétée autant au niveau de l'intégrité des prédictions qu'à celui de la latence de réponse aux actions de l'ECU. Ainsi, le modèle d'apprentissage machine sélectionné devra avoir une charge de calcul relativement légère à l'inférence. Puisque le système désiré devra posséder un haut niveau de portabilité et de réutilisabilité pour permettre l'intégration de différents ECU, le modèle devra être entraînable avec une quantité de données limitée. Suivant ces critères et restrictions, plusieurs architectures de réseaux de neurones furent initialement sélectionnées selon leur succès dans la littérature dans des contextes similaires à celui présenté. Les réseaux de type LSTM, GRU, TCN et NARX furent évalués et comparés sur une tâche de régression de séquences nécessitant la génération de signaux représentant les dynamiques d'un véhicule en freinage équipé d'un système ABS. Le modèle TCN fut capable de démontrer les meilleurs résultats sur la tâche en question comparativement aux autres réseaux. Une technique de régularisation utilisant la différentiation numérique des prédictions fut conçue et appliquée à l'entraînement du modèle afin de promouvoir la génération de signaux plus crédibles. Le réseau TCN fut finalement implémenté sur un accélérateur matériel utilisant les technologies FPGA afin de minimiser la latence des prédictions dans le système HIL. Le produit final permet d'offrir une prédiction du prochain état de l'environnement virtuel après 4.45 μs de latence. Cette valeur ne représente que l'inférence du modèle et omet la latence de communication et de conversion des signaux entre le module de prédiction et l'ECU testé. / This thesis presents the design and implementation of a hardware accelerator for a neural network that will be responsible for modeling a virtual environment in a Hardwarein- the-Loop simulator (HIL). This module aims to provide a credible environment to the electronic control unit (ECU) under test in the form of the input signals required by it. This credibility is reflected both in the integrity of the predictions and in the response latency to ECU actions. Thus, the selected machine learning model has a relatively light computational load at inference. Since the desired system possesses a high level of portability and reusability to allow the integration of different ECUs, the model remains trainable with limited data. Following these criteria and restrictions, several neural network architectures were initially selected according to their success in the literature in contexts similar to the one presented. LSTM, GRU, TCN and NARX architectures were evaluated and compared on a sequence regression task requiring generating signals representing the dynamics of a braking vehicle equipped with an ABS. The TCN model demonstrated the best results on the task in question compared to the other networks. A regularization technique using numerical differentiation of predictions was designed and applied to model training to promote the generation of more believable signals. The TCN network was finally implemented on a hardware accelerator using FPGA technologies to minimize the latency of the predictions in the HIL system. The final product makes it possible to offer a prediction of the next state of the virtual environment after 4.45 μs of latency. This value only represents the model inference and omits the communication and signal conversion latency between the prediction module and the ECU under test.

Page generated in 0.0971 seconds