• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 76
  • 18
  • 1
  • Tagged with
  • 95
  • 95
  • 50
  • 29
  • 25
  • 22
  • 18
  • 12
  • 9
  • 9
  • 8
  • 8
  • 7
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Modélisation du chablis en pessières régulières et irrégulières : effet de la diversité structurale des pessières noires boréales sur la résistance et la susceptibilité au chablis

Bergeron, Carl 13 April 2018 (has links)
Des travaux ont permis d’évaluer la résistance et la susceptibilité au chablis de l’épinette noire (Picea mariana (Mill.) B.S.P.) en structure régulière et irrégulière. Des expériences de treuillage ont permis d’évaluer le moment de force critique afin de quantifier la résistance des arbres au renversement et au bris de tige. Différents modèles ont été ajustés aux données. Le moment de force critique est fonction de la masse de la tige dans tous le cas et influencée par la structure ou les ratios hauteur : diamètre dans certains cas. Ces résultats sur la résistance, de même que la modélisation de la cime et plusieurs autres ajustements, furent intégrés dans le modèle ForestGALES afin de quantifier la susceptibilité au chablis. La susceptibilité apparaît fort variable entre et au sein de chaque type de structure, mais l’espacement et le rapport hauteur : diamètre expliquent la majeure partie de la variabilité observée. / Works aimed to evaluate windthrow resistance and susceptibility for black spruce (Picea mariana (Mill.) B.S.P.) stands of regular and irregular structure are presented here. Performed tree pulling works permitted to evaluate the critical bending moment in order to quantify the resistance of trees to overturning and stem breakage. Different models where fitted to the data. The critical bending moment is function of stem weight in all cases and influenced by the structure type or the height:diameter ratio in some cases. These results on mechanical resistance, along with crown modelling results and other adjustments, were used in an adaptation of the ForestGALES model in order to quantify windthrow susceptibility. Susceptibility appears to be quite variable between compared stands, both between and within structure types, but average tree spacing and height:diameter ratio explain most of the observed variability.
22

Apprentissage autonome de réseaux de neurones pour le pilotage en temps réel des systèmes de production basé sur l'optimisation via simulation

Mouelhi-Chibani, Wiem 12 October 2009 (has links) (PDF)
Le pilotage en temps réel des systèmes de production nécessite de prendre des décisions complexes sur l'affectation des ressources ou le choix des tâches à réaliser. Compte tenu de l'importance de la pertinence des décisions pour la performance d'un atelier, le pilotage fait l'objet de travaux de recherche dont l'objectif est d'aider les preneurs de décision. En particulier, on ne sait pas évaluer les conséquences sur la performance d'une décision en temps réel car les bonnes performances résultent d'une séquence de décisions et non d'une seule. De ce fait, il est difficile d'établir quelle est la meilleure décision à prendre à un instant donné. Plusieurs auteurs ont utilisé la simulation pour apprendre des bonnes pratiques à l'aide d'approches d'apprentissage automatique, mais se sont heurtés à la difficulté d'obtenir des exemples ou des observations sur des décisions en temps réel, où la prise en compte des changements d'états est indispensable pour choisir des stratégies de production. Nous avons réussi à aborder ce problème en proposant une approche d'apprentissage à l'aide de réseaux de neurones, qui ne nécessite pas d'exemples, d'observations ni de connaissances d'experts préalables. Ce type d'apprentissage s'effectue par optimisation via simulation des paramètres du réseau de neurones par rapport à un objectif de performance du système. Il vise à extraire de façon autonome des connaissances sur la meilleure façon de décider d'un modèle de simulation. Nous montrons la faisablité et l'apport de notre approche sur deux exemples inspirés de la littérature
23

Contribution à l'étude numérique des écoulements turbulents inertes et réactifs stabilisés en aval d'un élargissement brusque symétrique

Martinez-Ramirez, Bernardo 22 December 2005 (has links) (PDF)
Ce travail est consacré à la simulation numérique des écoulements inertes et réactifs stabilisés en aval d'un élargissement brusque symétrique, alimenté par deux écoulements de canal pleinement développés d'air ou air+propane.<br />L'objectif est, d'une part, de tester sur une géométrie "simple", une modélisation de la combustion en écoulements turbulents et en régime de prémélange et, d'autre part, d'estimer le niveau de précision obtenue afin de pouvoir quantifier une éventuelle amélioration liée à l'utilisation de modèles plus sophistiqués. Le modèle de turbulence k-epsilon sous sa forme standard avec la loi de paroi, et le modèle de combustion du type PDF présumé, modèle CLE, ont été retenus pour nos simulations.<br />Une étude préliminaire du type KPP nous a permis de déduire les caractéristiques propagatives des zones de réactions moyennes à richesse constante, calculées sur la base du modèle de combustion retenu.<br />Dans ce travail, ont été simulés : trois écoulements inertes et trois écoulements réactifs à richesse constante pour nombres de Reynolds égaux à 25000, 50000 et 75000 et deux écoulements réactifs à richesse variable pour nombre de Reynolds 25000.<br />Concernant les écoulements inertes, on retrouve bien la dissymétrie observée expérimentalement des deux zones de recirculation moyennes. Pour les écoulements réactifs à richesse constante, on retrouve également la resymétrisation de l'écoulement moyen observée expérimentalement.<br />En revanche, la longueur des zones de recirculation moyenne est fortement sous-estimée par le calcul.<br />Un comportement auto-semblable dans la zone proche de l'élargissement est également retrouvé. Pour les écoulements à richesse variable, la perte de symétrie de l'écoulement moyen est bien retrouvée, mais les longueurs des zones de recirculation moyennes sont toujours sous-estimées par le calcul. Des indicateurs quantitatifs d'écart entre les résultats numériques et expérimentaux sont fournis pour les écoulements inertes et réactifs considérés, permettant à l'avenir, d'estimer le gain apporté par le recours à des simulations basées sur une évolution ou sur une amélioration de modèles physiques retenus de le cadre de cette étude.
24

Gestion des systèmes automatisés d'entreposage : simulation, optimisation et résultats empiriques

Gagliardi, Jean-Philippe 18 April 2018 (has links)
Les systèmes automatisés d'entreposage {Automated Storage and Retrieval Systems- AS/RS) sont considérés aujourd'hui comme une technologie de pointe dans le domaine de l'entreposage et de la distribution à haut débit. L'implantation d'un tel système représente un investissement corporatif majeur, il est donc attendu que son niveau de performance soit élevé. Ce niveau de performance, pour un environnement donné, est le résultat d'un ensemble de décisions relatives à la fois au design et au contrôle du système. Pour cette raison, tant aux niveaux industriel qu'académique, on cherche à développer des approches permettant de modéliser, concevoir et contrôler au mieux ces systèmes qui jouent un rôle critique dans les chaînes logistiques modernes. À cette fin, plusieurs approches issues de la recherche opérationnelle peuvent être appliquées. Cette thèse comporte quatre articles, présentant chacun un aspect distinct de l'étude des AS/RS. Nous présentons, dans le premier article, une revue de littérature traitant des approches de modélisation des AS/RS. L'étude met l'accent sur les hypothèses de modélisation employées dans les différents articles et qui ne sont pas toujours intuitives, ni même mentionnées. Cette réalité fait en sorte qu'il est parfois très difficile d'exploiter les résultats de recherches précédentes afin de les transposer dans un autre contexte. En plus d'isoler les hypothèses de modélisation, nous présentons une structure séparant les différentes questions de recherche en fonction des problèmes étudiés. Les résultats de cette revue prennent la forme d'une synthèse permettant d'associer, pour un problème donné, les études et résultats provenant de contextes similaires. Nous proposons dans le second article un modèle de simulation à événements discrets conçu pour étudier les AS/RS à charge unitaire. En prenant appui sur la programmation orientée-objet, le modèle a été conçu de manière à pouvoir aisément modéliser plusieurs configurations, comme par exemple les systèmes à plusieurs allées ou les AS/RS visant à gérer la collecte de petits items dans des contenants. Une description détaillée du moteur de simulation est donnée. C'est grâce à ce modèle que les chapitres subséquents ont pu voir le jour, en permettant l'étude empirique de ces systèmes hautement complexes et dynamiques. Dans le troisième article, nous présentons une étude sur le problème de gestion de l'espace dans les AS/RS. Ce problème consiste à définir, pour chaque localisation de stockage, le ou les produits pouvant y être stockés. Nous nous intéressons principalement à l'étude de l'entreposage par zones dont le nombre peut varier entre une seule zone et autant de zones qu'il y a de produits. La gestion de l'espace a suscité beaucoup d'intérêt scientifique vers la fin des années 70. Plusieurs modèles analytiques ont été formulés, résultant en certaines conclusions largement acceptées dans tous les milieux. Cependant, nous constatons que la validité de ces modèles analytiques repose sur certaines hypothèses restrictives. À l'aide du modèle de simulation présenté, nous montrons que ces conclusions ne tiennent plus lorsque nous nous transposons dans un contexte réaliste. Ce nouveau résultat nous amène à voir la gestion de l'espace en fonction des caractéristiques des produits entreposés. Dans le quatrième article, nous portons notre attention sur le problème de séquencement des requêtes dans un AS/RS. Le séquencement des requêtes consiste à définir l'ordre dans lequel les requêtes de stockage et de collecte seront complétées selon un horizon à durée déterminée, dans un objectif de minimisation du temps de cycle moyen. Cela revient à maximiser le rendement du système. Pour ce faire, nous proposons une adaptation des heuristiques de la littérature pour traiter le cas de séquencement dynamique, puis nous proposons une des premières formulations mathématiques au problème. Par la suite, nous évaluons les opérations du système à l'aide du modèle de simulation détaillé dans le deuxième article. Les résultats empiriques obtenus illustrent l'effet positif du séquencement sur la performance du système en plus de fournir une comparaison des différentes approches de séquencement étudiées. À travers ces quatre chapitres, nous démontrons que la simulation et l'optimisation des systèmes automatisés d'entreposage posent plusieurs défis. Nous avons présenté un modèle de simulation robuste qui a permis de faire avancer les connaissances dans le domaine de la gestion de l'espace et du séquencement des requêtes.
25

Amélioration de l'efficacité énergétique d'un circuit de broyage à rouleaux à haute pression par la commande prédictive économique

Thivierge, Alex 30 November 2022 (has links)
Le traitement du minerai s'effectue en deux étapes : la comminution et la séparation des particules. La première comprend le broyage, un procédé très énergivore. Celui-ci consomme près de la moitié de l'énergie des sites miniers. Il a déjà été démontré que remplacer le broyeur primaire conventionnel par le broyeur à rouleaux à haute pression (HPGR) permettait de diminuer la consommation énergétique des usines. Ceci s'explique en raison de son mécanisme de fragmentation. Contrairement aux broyeurs conventionnels qui brisent les particules par impacts et attrition, le HPGR fait appel à la compression, plus efficace énergétiquement. Remplacer les systèmes de contrôle du statu quo par la commande prédictive économique (EMPC) pourrait réduire davantage la consommation énergétique des usines avec HPGR, car celle-ci considère le coût énergétique dans sa fonction objectif. Jusqu'à maintenant, ce scénario n'a pas été étudié. Cette recherche comble cette lacune. La mener à terme a nécessité de programmer des simulateurs de HPGR et de flottation. Le corpus contient déjà plusieurs modèles de HPGR, mais la majorité de ceux-ci présume que les fragments de minerai ne glissent pas dans l'espacement entre les rouleaux, une hypothèse qui n'avait pas été vérifiée. Les objectifs de la recherche sont donc : 1. de vérifier l'hypothèse d'absence de glissement du minerai dans l'espacement des rouleaux du HPGR ; 2. de développer un simulateur de HPGR permettant d'étudier le contrôle de procédé à l'échelle de l'usine ; 3. de modéliser mathématiquement la performance de flottation aux caractéristiques du produit de broyage et 4. de quantifier l'impact économique et énergétique de la commande prédictive économique à l'échelle globale à partir d'une étude de cas par simulation. Ces travaux invalident plusieurs modèles de HPGR en démontrant, à l'aide d'un bilan de matière, que le glissement se produit pour un jeu de données. Concevoir un observateur a permis de quantifier la vitesse de glissement. Celui-ci est basé sur des bilans de force, de matière et d'énergie. Il fait appel au critère de friction de Coulomb et à d'autres relations empiriques. Cette thèse présente ensuite le développement d'un modèle de HPGR ne faisant aucune hypothèse restrictive sur le glissement. Ce modèle suppose un écoulement piston divisé en plusieurs zones le long des rouleaux. Il comprend quatre sous-modèles : 1. espacement entre les rouleaux - fonction empirique de la force spécifique ; 2. débit massique du produit - équation de continuité améliorée d'un facteur de correction ; 3. puissance soutirée - fonction de l'angle d'application de la force de broyage et 4. distribution granulométrique du produit - approche populationnelle cumulative résolue dans le domaine énergétique. Son calibrage pour 18 jeux de données a permis d'évaluer sa validité. Le manuscrit continue avec la proposition d'un modèle empirique de la constante cinétique de flottation en fonction de la taille et de la composition des particules. En reliant le simulateur de broyage aux performances de flottation, il permet la réalisation de l'étude de contrôle de procédé à l'échelle de l'usine. Celle-ci s'accomplit en comparant l'efficacité énergétique et la performance économique des réponses de plusieurs systèmes de contrôle à une séquence donnée de perturbations. Les résultats principaux sont énumérés ci-après. 1. Comparativement à une stratégie de contrôle de procédés qui maintient le débit de minerai frais alimenté constant, un système qui manipule cette variable consomme moins d'énergie spécifique et produit une performance économique supérieure malgré une détérioration du rendement métal. 2. Une stratégie basée sur des contrôleurs de type proportionnel-intégral (PI) décentralisés permet d'obtenir la même performance économique que la EMPC, car l'optimum économique se situe au point de rencontre de contraintes d'opération du système. 3. La EMPC peut accroitre l'efficacité énergétique si son critère contient une composante pénalisant la puissance soutirée explicitement, mais au prix d'une diminution de la performance économique. En somme, la recherche montre qu'une stratégie de commande multivariable judicieuse mène à des performances économiques et énergétiques supérieures comparativement à une stratégie de commande de base pour une usine avec HPGR. Des performances équivalentes peuvent toutefois être obtenues autant avec une EMPC qu'avec une stratégie décentralisée faisant appel à des régulateurs PI. / Mineral processing comprises two steps : comminution and separation of the particles. The first one includes grinding, an energy-inefficient process consuming about half the energy of mine sites. It was previously demonstrated that replacing conventional grinding technologies by high-pressure grinding rolls (HPGR) reduces the specific energy consumption of mineral processing plants. The different breakage mechanisms explain these results. In contrast to conventional grinding mills that break particles by impact and attrition, the HPGR fragments them by compression, which exhibits higher energy efficiency. Replacing current process control systems with economic model predictive control (EMPC) could further reduce the energy consumption of HPGR grinding circuits since it considers the energy cost within its objective function. This solution remains unexplored as of now. This work aims at filling this gap. Doing so requires programming HPGR and flotation simulators. The literature already contains several HPGR models. Most of them, however, assume the ore does not slip against the surface of the rolls even though this assumption has yet to be validated. This research therefore aims: 1. to verify whether the ore fragments may slip or not in the HPGR working gap; 2. to develop an HPGR simulator enabling the study of plant-wide process control; 3. to model mathematically the flotation response to the grinding product characteristics, and 4. to quantify the performance of plant-wide EMPC in a simulated case study using specific energy consumption and the product net value as metrics. The results invalidate several HPGR models by showing, through a mass balance, that the ore fragments slip in the HPGR working gap for a data set. Developing an observer allowed quantifying the speed at which they do. It makes use of force, mass, and energy balances, the Coulomb friction criterion, and other empirical models. This thesis then presents a novel HPGR model that makes no restricting hypothesis regarding slip. It considers several parallel plug flow reactors along the length of the rolls. It comprises four sub-models: 1. working gap - empirical function of the specific force; 2. product mass flow rate - continuity equation improved with a correction factor; 3. power draw - function of the grinding force application angle, and 4. product particle size distribution - cumulative population balance model solved in the energy domain. Calibrating the model on 18 data sets allowed evaluating its validity. The manuscript follows with the proposal of an empirical model for the flotation kinetic constant as a function of the particle size and composition. It therefore links the flotation process performance to the grinding circuit, in turn allowing the plant-wide process control study to take place. To do so, the simulator introduces a given disturbance sequence to different control strategies. It makes use of energy efficiency and product hourly net value as comparison metrics. The main results are listed thereafter. 1. In contrast to a control system maintaining constant feed rate, a system that manipulates this variable consumes less specific energy and generates more profits even though the metal recovery decreases. 2. A control strategy based on decentralized proportional-integral (PI) controllers allows generating the same economic output as the EMPC because the system's constraints define the economic optimum. 3. EMPC can reduce the grinding circuit specific energy consumption by including a penalty for HPGR power draw in the objective function, albeit at the cost of a lower economic performance. Overall, the research shows that a well-designed multivariable control system results in higher economic performance and energy efficiency in comparison to a basic regulatory control system for a plant comprising HPGR grinding. This being said, both EMPC and PI-based decentralized regulatory control produce equivalent performances. / Thèse ou mémoire avec insertion d'articles.
26

Développement d'un outil de simulation par Monte Carlo du rayonnement diffusé en tomodensitométrie

Saucier, Marie Annie 25 September 2018 (has links)
L’objectif de ce projet est de créer un programme logiciel permettant de corriger le rayonnement diffusé dans une acquisition tomodensitométrique à géométrie conique. Pour ce faire, une simulation Monte Carlo est utilisée pour estimer le rayonnement diffusé, ce qui consiste à reproduire numériquement un examen en tomodensitométrie. Ce projet a été divisé en deux sections : la validation de la physique pour ce programme spécifique et le développement logiciel du programme. La validation consistait à reproduire les résultats obtenus avec Geant4 avec GPUMCD. Geant4, la plateforme de référence, et GPUMCD, la plateforme à l’étude, sont deux librairies logicielles pour la simulation numérique du transport de particules à travers la matière utilisant les calculs Monte Carlo. Les éléments étudiés sont les sections efficaces, les matériaux, l’algorithme de diffusion Rayleigh et l’algorithme de diffusion Compton. Bien que quelques erreurs persistent dans la physique de GPUMCD, une nette amélioration des résultats entre GPUMCD et Geant4 a été obtenue. La différence entre les deux simulations qui était supérieure à 100% pour une géométrie complexe est passée sous la barre du 10%. De plus, il a été possible d’identifier quelques autres causes telles qu’une différence dans la définition des modèles physiques, et ce, plus précisément dans l’algorithme de diffusion Compton. En ce qui concerne la seconde partie du projet, bien que la correction n’a pu être effectuée pour une reconstruction, tous les éléments ont été implémentés pour estimer le rayonnement diffusé pour une géométrie de patient provenant de données cliniques d’une reconstruction tomodensitométrique. Les paramètres et les stratégies étudiés dans le but d’optimiser le temps de calculs tout en conservant la justesse des résultats sont : le traçage de rayons, le lissage gaussien du rayonnement diffusé, la réduction du nombre de pixels sur le détecteur, l’interpolation des projections, la symétrie et la réduction de nombre de voxels dans le patient. De plus, en considérant une correction de haute qualité, soit 2% d’erreur et moins par stratégie implémentée, on obtient un temps de simulation de moins de 2 minutes sur une GPU Nvidia Titan X. Pour une simulation dite de basse qualité, soit 5% d’erreur et moins par stratégie implémentée, on obtient un temps d’exécution de moins de 15 s par simulation. Cela correspond à des temps cliniquement acceptables si le patient doit attendre sur la table. / The goal of this project is to develop an application to correct the scattered radiation in a cone beam computed tomography scan (CBCT). A Monte Carlo simulation is used to estimate the scattered radiation which is a numerical replication of a CBCT acquisition. This project has been divided into two sections : the validation of the physics for this specific application and the development of the application. The validation consisted in reproducing the results obtained with Geant4 in GPUMCD. Geant4 is the reference platform and GPUMCD is the platform studied. Both are Monte Carlo simulators of the passage of particles through matter.The elements studied are the cross sections, the materials, the Rayleigh scattering algorithm and the Compton scattering algorithm. Although some errors are still present, a great improvement of the results between GPUMCD and Geant4 was obtained. The difference between the two simulations was greater than 100 % for complex geometries and dropped below 10% after corrections of the physics. In addition, it was possible to identify some other problems such as a theoretical difference in the Compton scattering algorithms. Regarding the second part of the project, although the correction could not be implemented in a reconstruction, all elements are present to estimate the scattered radiation for an actual CBCT reconstruction. The parameters and strategies studied in order to optimize the computation time while maintaining the accuracy of the results are : ray tracing, Gaussian smoothing of scattered radiation, reduction of the number of pixels on the detector, interpolation of between the simulated projections, symmetry and reduction of number of voxels in the patient. In addition, considering a correction of high quality is 2 % error and less per implemented strategy, a simulation time of less than 2 minutes is obtained. For a low quality simulation (5% error and less per parameter), a simulation time of less than 15 seconds per simulation was obtained. Those are clinically acceptable simulation times.
27

L'empathie et la vidéoconférence en séances simulées de téléthérapie

Grondin, Frédéric 30 August 2022 (has links)
La téléthérapie, soit l'offre de soins en psychothérapie à l'aide de moyens de communication comme la vidéoconférence (VC), est une modalité de traitement de plus en plus utilisée. Bien que la recherche montre que cette modalité soit aussi efficace que les suivis en présentiel et qu'elle permette la création de l'alliance thérapeutique avec les clients, des préoccupations subsistent quant à la possibilité que l'empathie soit impactée dans les suivis de téléthérapie par VC. Les quelques données disponibles indiquent que l'empathie ressentie par les thérapeutes et perçue par les clients pourrait être moindre en VC qu'en présentiel, ce qui n'a pas encore été testé expérimentalement. Cet écart d'empathie proviendrait de la perte relative de certains indices non verbaux en VC, notamment du contact visuel. Considérant que l'empathie constitue un prédicteur de l'issue thérapeutique, il importe 1) d'élucider les mécanismes propres au contexte de VC qui influencent l'empathie, 2) de tester quantitativement la présence d'une différence d'empathie entre les séances en VC et celles en présentiel et 3) de développer des méthodes par lesquelles optimiser l'empathie en téléthérapie. Ces objectifs sont abordés par l'entremise des quatre chapitres de la thèse. Le premier chapitre aborde le développement d'un cadre conceptuel rendant compte de l'effet de filtre présent dans un contexte de communication virtuelle et du probable impact délétère de cet effet de filtre sur l'empathie en téléthérapie. Le chapitre 2, au moyen de deux études, montre que les niveaux d'empathie ressentie et perçue lors de séances simulées de thérapie sont moins élevés en VC qu'en présentiel. Le chapitre 2 identifie également que certains éléments de la téléprésence, soit l'impression pour les thérapeutes et les clients d'être ensemble durant l'appel en VC, corrèlent avec l'empathie rapportée par les thérapeutes et les clients. Les chapitres 3 et 4 investiguent l'effet du contact visuel sur l'empathie perçue en téléthérapie. Le chapitre 3 décrit d'abord le développement d'une méthodologie simple permettant de préserver la perception de contact visuel en diminuant l'angle de regard situé entre la caméra web et les yeux de l'interlocuteur sur l'écran d'ordinateur. Le chapitre 4 reprend cette méthodologie pour créer deux conditions expérimentales, avec ou sans contact visuel en VC. Les résultats montrent que, contrairement aux hypothèses initiales, le fait de pouvoir établir un contact visuel n'augmente pas les niveaux d'empathie et de téléprésence rapportés par les clients en séances simulées de téléthérapie. Des données d'oculométrie prélevées durant les séances montrent que les clients ne regardent pas davantage les yeux et le visage du thérapeute dans la condition avec contact visuel. Une association est toutefois observée entre le temps passé à regarder les yeux du thérapeute et l'empathie rapportée par les clients, mais seulement dans la condition avec contact visuel. Ces données indiquent ainsi que les clients sont en mesure de percevoir l'empathie en VC, que le contact visuel soit possible ou non. La thèse démontre que l'empathie peut être affectée en contexte de VC, mais également que les clients peuvent s'ajuster à l'altération de certains indices non verbaux lorsqu'ils jaugent l'empathie du thérapeute. Ces résultats sont encourageants vu l'usage grandissant de cette modalité de traitement en contexte de pandémie mondiale de COVID-19. / Teletherapy, defined as the use of a communication medium such as videoconference (VC) to conduct psychotherapy sessions at a distance, is increasingly used by therapists and clients. The use of teletherapy has seen a surge during the COVID-19 pandemic as a means to comply with the recommended social distancing measures. Though teletherapy has produced comparable outcomes to traditional, in-person therapy and is deemed a suitable modality for the establishment of therapeutic alliance, concerns remain over the possibility that empathy could be altered in teletherapy through VC. The available data, although limited, support the hypothesis that empathy could be lower in VC than in in-person sessions, but this has yet to be empirically tested. The relative loss of nonverbal cues in VC, such as the alteration of eye contact, could account for this potential discrepancy in empathy. There is therefore a need 1) to describe the influence of the VC medium on the mechanisms underlying empathy, 2) to quantitatively compare the levels of empathy in VC sessions to those in in-person sessions, and 3) to design a procedure to enhance empathy in VC sessions. These objectives are addressed in the four chapters of this thesis. The first chapter consists in the elaboration of a conceptual framework of online empathy. The conceptual framework describes the filter effect induced by online environments on nonverbal signals and its potential adverse influence on empathy in VC. Chapter 2 describes a study showing a decrease in empathy reported by therapists and clients taking part in simulated clinical sessions in VC and in-person settings. The results also reveal a significant correlation between empathy and telepresence, a term that relates to the impression for clients and therapists of being there, together in a VC interaction. The studies described in Chapters 3 and 4 aim at identifying the impact of eye contact on perceived empathy in teletherapy. Chapter 3 first describes the development of a simple methodology that facilitates eye contact in VC by decreasing the gaze angle between the webcam and the eyes of the other interactant on the screen. This methodology is employed in the experiment described in Chapter 4 to either allow or prevent eye contact from the clients' perspective during simulations of clinical sessions. The results show that, contrary to the hypothesis, facilitating eye contact in VC does not lead to higher levels of empathy and telepresence. Eye tracking data collected during the sessions showed that clients did not look more at the eyes and the face of therapists when eye contact was facilitated. However, a significant, positive correlation was observed between the time spent looking into the eyes of the therapist and the levels of empathy reported, but only in the sessions where eye contact was facilitated. These results show that clients can perceive empathy in VC, whether eye contact is altered or not. Overall, the findings of the thesis demonstrate that empathy can be altered in VC sessions but also highlight the capacity of clients to adapt to the alteration of nonverbal signals when assessing therapist empathy.
28

Influence du vieillissement sur le contrôle visuo-locomoteur utilisé pour contourner un piéton approchant avec différents patrons de marche

Fiset, Félix 30 August 2022 (has links)
L'objectif de ce mémoire est de mieux comprendre les informations utilisées par de jeunes adultes et des personnes âgées en santé relativement aux mouvements locomoteurs d’une autre personne pour la contourner dans un environnement représentatif de la marche en communauté. Pour ce faire, deux projets ont été réalisés dans un environnement virtuel représentant un centre commercial. Dans le premier projet (chapitre 2), dix jeunes adultes avaient comme consigne de se diriger vers un café situé devant eux et de contourner au besoin un piéton virtuel approchant avec différents patrons de marche : mouvements locomoteurs normaux; aucun mouvement des bras ; aucun mouvement des jambes ; aucun mouvement des bras et des jambes. Dans le deuxième projet (chapitre 3), 14 jeunes adultes et 14 personnes âgées ont été recrutés afin de réaliser une tâche similaire à la première étude, mais cette fois-ci, avec un piéton virtuel ayant une trajectoire de marche initialement imprévisible. La trajectoire de marche, le dégagement minimal, la vitesse de marche, les stratégies de réorientation du corps et les stratégies visuelles ont été étudiés. Des analyses non paramétriques de données longitudinales ont été utilisées pour comparer les variables entre les âges et les conditions. L’absence de mouvements des bras et des jambes d’un piéton se traduisait par une stratégie de contournement plus conservatrice tant chez les jeunes que chez les personnes âgées en augmentant les distances maintenues avec le piéton. Les personnes âgées avaient besoin de plus de temps pour traiter l’information, ce qui résultait en une déviation de trajectoire plus tardive et une attention visuelle davantage dirigée sur le piéton. Ces changements liés au vieillissement pourraient se traduire par un risque accru de chutes chez les populations âgées présentant des troubles d’équilibre et contribuer à limiter la marche dans la communauté. / The objective of this master's thesis was to better understand the information used by healthy young and older adults during circumvention depending on the locomotor movements of another pedestrian within an environment representative of community walking. To do this, two projects were carried out in a virtual environment representing a shopping mall. In the first project (Chapter 2), ten young adults were instructed towalk towards a coffee shop located in front of them and to circumvent an approaching virtual pedestrian with different locomotor movements: Normal locomotor movement; No arm movement; No leg movement; No armand leg movement. In the second project (Chapter 3), 14 young adults and 14 older adults were recruited to perform a task similar to the first study, but this time with a virtual pedestrian approaching with an initially unpredictable trajectory. Walking trajectory, minimum clearance, walking speed, body reorientation strategies and gaze behaviour were studied. Non parametric Analyses of Longitudinal Data were used to compare variables across the age groups and conditions. The absence of arm and leg movements from a pedestrian resulted in amore cautious strategy for both young and older adults by increasing the distances maintained with the pedestrian. The older adults needed more time to process visual information, which resulted in a later trajectory deviation and more visual attention directed to the pedestrian. These age-related changes could result in anincreased risk of falls in older adult populations with reduced balance and mobility and contribute to limiting community ambulation.
29

Modélisation et prédiction du séchage à l'air libre du bois d'œuvre

Gendron, Samuel 13 November 2023 (has links)
Titre de l'écran-titre (visionné le 8 novembre 2023) / Le séchage à l'air libre du bois d'œuvre est une bonne stratégie à adopter pour un scieur. Il permet de réduire les coûts reliés au séchage et d'augmenter la capacité de séchage d'un site, tout en améliorant la qualité finale des produits. Il peut être utilisé comme stratégie de séchage complet ou bien comme pré-séchage à l'air libre avant de passer aux séchoirs conventionnels. Cependant, il demande un suivi manuel et une gestion de l'inventaire qui peuvent être exigeants sans outil automatisé. En réponse à cet enjeu, l'utilisation d'un modèle de simulation du séchage du bois est justifiée. En combinaison avec une station météorologique, le modèle étudié (FPdrySim) pourrait être utilisé en temps réel. L'objectif général de cette étude est donc de déterminer si l'ajout de données météorologiques (température sèche, température humide, vitesse et direction du vent, pluie et rayonnement solaire) dans FPdrySim pourrait lui permettre de prédire la teneur en humidité du bois pendant son séchage à l'air. Dans l'éventualité que ses prédictions soient justes, le simulateur pourrait être utilisé comme outil automatisé d'aide à la décision et de gestion de l'inventaire, pour la formation des lots de séchage et l'optimisation de l'homogénéité des lots à l'entrée des séchoirs. Deux séries d'essais ont été menées aux mois de mai et d'août 2022. Ces essais ont eu pour objectif de suivre le séchage à l'air libre de paquets de sapin baumier et d'épinette blanche pendant quatre semaines, dans des conditions météorologiques d'entreposage monitorées. Les coefficients de détermination globaux calculés entre la prédiction du modèle et la teneur en humidité moyenne réelle sont de 0,83 et de 0,94 pour les essais du mois de mai et d'août respectivement. La prédiction sur la distribution de la teneur en humidité pourrait être améliorée. Néanmoins, les résultats sont favorables à la continuation du projet vers une étape subséquente de plus grande échelle.
30

Prédire le temps de trajet à l'aide des méthodes d'apprentissage profond

Lassakeur, Imad Eddine 07 June 2024 (has links)
Avec l'urbanisation croissante et l'augmentation des flux de trafic, les villes font face à des défis majeurs de congestion, de pollution, et de réduction de la qualité de vie. Comprendre et prédire les durées de trajet devient donc essentiel pour optimiser la mobilité urbaine et améliorer l'expérience quotidienne des citadins. Dans ce projet, nous avons adapté et expérimenté une méthode novatrice pour la prédiction des temps de trajet, combinant l'apprentissage automatique avec une analyse approfondie des données de circulation. Notre étude a débuté par un état de l'art des méthodes existantes, passant des modèles empiriques aux techniques d'intelligence artificielle avancées, et a mis en évidence les avantages des modèles hybrides. Nous avons conçu un processus détaillé qui commence par la collecte de données diverses, y compris des historiques de trafic, des informations structurelles des routes, et des conditions météorologiques. Ces données ont été traitées et analysées par segments pour souligner la nécessité d'approches localisées dans la prédiction. Notre application pratique sur le terrain urbain complexe de la ville de Québec a utilisé des données issues de Google Maps, OpenStreetMaps et WeatherEnvironment. Elle a prouvé l'efficacité d'un modèle hybride combinant des réseaux de neurones récurrents (GRU) et XGBoost. Ce modèle a démontré des performances supérieures par rapport aux méthodes traditionnelles, offrant des prédictions de temps de trajet plus précises et fiables. Les résultats ont également validé l'importance de l'analyse segmentée des parcours et la pertinence de sélectionner des caractéristiques influentes. Cette recherche contribue significativement au domaine de la gestion de la mobilité urbaine, ouvrant des perspectives pour l'optimisation des systèmes de navigation intelligents et la planification efficace du trafic. L'extension de cette méthodologie à d'autres contextes urbains et l'intégration de données en temps réel offrent des avenues prometteuses pour des recherches futures, visant à rendre nos villes plus intelligentes, durables et agréables pour leurs résidents. / With increasing urbanization and rising traffic flows, cities face major challenges including congestion, pollution, and reduced quality of life. Understanding and predicting travel times is thus crucial for optimizing urban mobility and enhancing the daily experience of city dwellers. In this project, we adapted and experimented with an innovative method for predicting travel times, combining machine learning with a thorough analysis of traffic data. Our study began with a state-of-the-art review of existing methods, ranging from empirical models to advanced artificial intelligence techniques, highlighting the benefits of hybrid models. We designed a detailed process starting with the collection of various data, including traffic history, road structural information, and weather conditions. These data were processed and analyzed by segments to underscore the need for localized approaches in prediction. Our practical application in the complex urban terrain of Quebec City used data from Google Maps, OpenStreetMaps, and WeatherEnvironment. It proved the effectiveness of a hybrid model combining recurrent neural networks (GRU) and XGBoost. This model demonstrated superior performance compared to traditional methods, providing more accurate and reliable travel time predictions. The results also validated the importance of segmented analysis of routes and the relevance of selecting influential features. This research significantly contributes to the field of urban mobility management, opening perspectives for optimizing intelligent navigation systems and efficient traffic planning. Extending this methodology to other urban contexts and integrating real-time data offers promising avenues for future research aimed at making our cities smarter, more sustainable, and more enjoyable for their residents.

Page generated in 0.1417 seconds