Spelling suggestions: "subject:"méthodes dde simulation"" "subject:"méthodes dee simulation""
41 |
Évaluation de l'éco-efficacité des procédés de transformation des produits laitiers : développement d'un outil de simulationBenoit, Scott 25 September 2018 (has links)
L’éco-efficacité est un concept qui a été spécifiquement conçu pour le monde de l’entreprise, et qui lie les performances environnementales et économiques d’un produit ou d’un service. Depuis 2012, l’éco-efficacité fait l’objet d’une méthode d’évaluation normalisée (ISO 14045) qui impose l’analyse de cycle de vie pour évaluer les impacts potentiels à l’environnement. L’évaluation de l’éco-efficacité offre ainsi au monde de l’entreprise l’opportunité de prendre des décisions non plus basées uniquement sur des égards économiques, mais prenant aussi en considération les impacts potentiels à l’environnement. Parmi les innombrables activités industrielles susceptibles de tirer profit du concept d’éco-efficacité se trouve la transformation des produits laitiers. En effet, ce secteur de l’industrie agro-alimentaire permet certes de valoriser la matière première laitière, mais exploite parallèlement une part significative des ressources naturelles. Le premier objectif de cette thèse a été de réaliser un état des lieux sur l’évolution et la mise en oeuvre du concept d’éco-efficacité dans le domaine de la transformation laitière. Une première étude a permis d’observer l’activité de transformation des produits laitiers sous une perspective de cycle de vie, et d’explorer les développements successifs du concept d’éco-efficacité dans ce domaine. Cette étude a notamment montré que la simulation de procédés présentait un potentiel intéressant pour lever les difficultés associées à l’évaluation de l’éco-efficacité selon la norme ISO 14045, soit les nécessités de disposer d’inventaires complets de flux de matière et d’énergie et d’une certaine expertise en analyse de cycle de vie. Par conséquent, le second objectif de cette thèse a été de développer un outil de simulation de procédés permettant l’évaluation de l’éco-efficacité des procédés de transformation des produits laitiers. Une seconde étude a ainsi permis le développement d’un prototype de logiciel permettant l’évaluation de l’éco-efficacité des produits laitiers. Ce prototype repose sur un simulateur de procédés spécifiquement développé pour la transformation laitière et intègre des jeux de données d’impacts potentiels à l’environnement. Ces caractéristiques lui permettent de générer des inventaires détaillés de flux de matière et d’énergie, et de procéder à l'évaluation des impacts potentiels à l’environnement, levant ainsi les difficultés identifiées lors de la première étude. Le prototype développé permet non seulement d'évaluer l’éco-efficacité des procédés modélisés, mais aussi d’identifier les opportunités d'améliorations, de comparer plusieurs scénarios de valorisation du lait cru, et d'évaluer la viabilité économique des scénarios modélisés. Cet outil a été utilisé lors d’une troisième et dernière étude, afin d’évaluer la contribution des opérations de séparation par membrane à l’éco-efficacité globale des procédés de transformation des produits laitiers. Ces opérations sont omniprésentes dans le domaine de la transformation laitière et présentent un potentiel non démontré d’amélioration de l’éco-efficacité. Trois scénarios de production de fromage Cheddar ont été comparés dans cette étude : deux intégrant des opérations de séparation par membrane à l’étape de standardisation du lait de fromagerie, et un dénué de telles opérations. Les résultats obtenus ont montré que même si l’introduction de procédés de séparation par membrane à l’étape de standardisation des laits de fromagerie permet d’augmenter significativement les rendements fromagers, elle ne permet pas d’augmenter l’éco-efficacité de cette transformation laitière. L’analyse des résultats a permis de déterminer que les potentiels d’amélioration de l’éco-efficacité par l’introduction de procédés de séparation par membranes se situaient probablement aux étapes de valorisation des sous-produits laitiers. Les travaux de cette thèse ont rencontré l’ensemble de leurs objectifs et contribuent ainsi à rendre l'évaluation de l'éco-efficacité plus accessible à l’ensemble des décideurs liés de près ou de loin à l’industrie de transformation des produits laitiers. / Eco-efficiency is a concept specifically designed for the business world and which links theenvironmental and economic performances of a product or service. Since 2012, eco-efficiency is subject to a standardised assessment (ISO 14045) which imposes life cycle analysis to conduct the assessment of the potential environmental impacts. Eco-efficiency assessment thus offers the business world the opportunity to make decisions not only based on economical criteria but also factoring in the potential environmental impacts. Among the countless industrial activities likely to benefit from the eco-efficiency concept is dairy processing. Indeed, this sector of the agri-food industry surely enables valorisation of dairy raw material but it concomitantly exploits a significant part of the natural resources. The first objective of this thesis was to conduct a state of play on the development and implementation of the ecoefficiency concept in the dairy processing field. A first study enabled to look at the dairy processing activity from a life-cycle perspective, and to investigate the successive developments of the eco-efficiency concept in this field. In particular, the study showed that process simulation presented a sound interest in overcoming the difficulties associated with eco-efficiency assessment according to the ISO 14045 standard: the need for a complete inventory of material and energy flows, and for a certain expertise in life cycle analysis. Therefore, the second objective of this thesis was to develop a process simulation tool enabling the ecoefficiency assessment of the dairy processes. A second study thus led to the development of a software prototype allowing for eco-efficiency assessment of dairy products. This prototype relies on a process simulator specifically designed for dairy processes and which includes datasets of potential environmental impacts. These features allow for both the generation of detailed inventories of material and energy flows and potential environmental impact assessments, thereby overcoming the challenges identified in the first study. The developed prototype not only allows for eco-efficiency assessments of the modelled processes but also enables identification of the improvement opportunities, comparison of multiple scenarios of raw milk valuation, and assessment of the economic viability of the modelled scenarios. This tool was used in a third and last study in order to assess the contribution of pressure driven filtration operations to the overall eco-efficiency of dairy processes. These operations are omnipresent in the dairy processing activity and hold a potential for eco-efficiency improvement which has not been yet demonstrated. Three scenarios of Cheddar cheese production were compared in this study: two integrating pressure driven filtration processes at the cheese milk standardisation stage, and one that did not include such operations. Results revealed that although introducing pressure driven filtration processes at the cheese milk standardisation stage can significantly improve the cheese yields, it does not allow for an improvement of the eco-efficiency of the cheese production process. Analysis of the results showed that t he potentials for eco-efficiency improvements in dairy processing through the introduction of pressure driven filtration operations could probably be achieved by incorporating them in the by-product valuation processes. The research work conducted within the framework of this thesis fulfilled all the different objectives set and therefore should help make eco-efficiency assessment more accessible to all the decision-makers related in one way or another to the dairy processing industry.
|
42 |
Modélisation d'un outil graphique d'aide à la compréhension de résolution de programmes logiquesBouanane, Mohamed 20 April 2018 (has links)
Ce projet de recherche traite du domaine de l’intelligence artificielle, plus précisément de la programmation logique, un type de programmation utilisée pour concevoir des systèmes dits intelligents. Ce type de programmation est toutefois assez complexe à assimiler et il n’existe, à notre connaissance, aucun outil interactif qui permette de montrer efficacement le processus d’exécution d’un programme logique. L’objectif de cette recherche consistait donc à proposer un modèle d’outil facilitant la compréhension de la résolution d’un programme logique. Le modèle proposé permet de représenter graphiquement et dynamiquement la trace de résolution d’un programme logique. Un prototype a été construit pour valider ce modèle avec des programmes écrits en langage Prolog. L’utilisateur peut ainsi suivre les étapes d’exécution à travers l’affichage dynamique d’un arbre de dérivation. Actuellement, le modèle ne permet pas de prendre en compte des programmes écrits avec différents langages de programmation, une telle généralisation serait une bonne amélioration.
|
43 |
Amélioration de l'efficacité énergétique d'un circuit de broyage à rouleaux à haute pression par la commande prédictive économiqueThivierge, Alex 13 December 2023 (has links)
Le traitement du minerai s'effectue en deux étapes : la comminution et la séparation des particules. La première comprend le broyage, un procédé très énergivore. Celui-ci consomme près de la moitié de l'énergie des sites miniers. Il a déjà été démontré que remplacer le broyeur primaire conventionnel par le broyeur à rouleaux à haute pression (HPGR) permettait de diminuer la consommation énergétique des usines. Ceci s'explique en raison de son mécanisme de fragmentation. Contrairement aux broyeurs conventionnels qui brisent les particules par impacts et attrition, le HPGR fait appel à la compression, plus efficace énergétiquement. Remplacer les systèmes de contrôle du statu quo par la commande prédictive économique (EMPC) pourrait réduire davantage la consommation énergétique des usines avec HPGR, car celle-ci considère le coût énergétique dans sa fonction objectif. Jusqu'à maintenant, ce scénario n'a pas été étudié. Cette recherche comble cette lacune. La mener à terme a nécessité de programmer des simulateurs de HPGR et de flottation. Le corpus contient déjà plusieurs modèles de HPGR, mais la majorité de ceux-ci présume que les fragments de minerai ne glissent pas dans l'espacement entre les rouleaux, une hypothèse qui n'avait pas été vérifiée. Les objectifs de la recherche sont donc : 1. de vérifier l'hypothèse d'absence de glissement du minerai dans l'espacement des rouleaux du HPGR ; 2. de développer un simulateur de HPGR permettant d'étudier le contrôle de procédé à l'échelle de l'usine ; 3. de modéliser mathématiquement la performance de flottation aux caractéristiques du produit de broyage et 4. de quantifier l'impact économique et énergétique de la commande prédictive économique à l'échelle globale à partir d'une étude de cas par simulation. Ces travaux invalident plusieurs modèles de HPGR en démontrant, à l'aide d'un bilan de matière, que le glissement se produit pour un jeu de données. Concevoir un observateur a permis de quantifier la vitesse de glissement. Celui-ci est basé sur des bilans de force, de matière et d'énergie. Il fait appel au critère de friction de Coulomb et à d'autres relations empiriques. Cette thèse présente ensuite le développement d'un modèle de HPGR ne faisant aucune hypothèse restrictive sur le glissement. Ce modèle suppose un écoulement piston divisé en plusieurs zones le long des rouleaux. Il comprend quatre sous-modèles : 1. espacement entre les rouleaux - fonction empirique de la force spécifique ; 2. débit massique du produit - équation de continuité améliorée d'un facteur de correction ; 3. puissance soutirée - fonction de l'angle d'application de la force de broyage et 4. distribution granulométrique du produit - approche populationnelle cumulative résolue dans le domaine énergétique. Son calibrage pour 18 jeux de données a permis d'évaluer sa validité. Le manuscrit continue avec la proposition d'un modèle empirique de la constante cinétique de flottation en fonction de la taille et de la composition des particules. En reliant le simulateur de broyage aux performances de flottation, il permet la réalisation de l'étude de contrôle de procédé à l'échelle de l'usine. Celle-ci s'accomplit en comparant l'efficacité énergétique et la performance économique des réponses de plusieurs systèmes de contrôle à une séquence donnée de perturbations. Les résultats principaux sont énumérés ci-après. 1. Comparativement à une stratégie de contrôle de procédés qui maintient le débit de minerai frais alimenté constant, un système qui manipule cette variable consomme moins d'énergie spécifique et produit une performance économique supérieure malgré une détérioration du rendement métal. 2. Une stratégie basée sur des contrôleurs de type proportionnel-intégral (PI) décentralisés permet d'obtenir la même performance économique que la EMPC, car l'optimum économique se situe au point de rencontre de contraintes d'opération du système. 3. La EMPC peut accroitre l'efficacité énergétique si son critère contient une composante pénalisant la puissance soutirée explicitement, mais au prix d'une diminution de la performance économique. En somme, la recherche montre qu'une stratégie de commande multivariable judicieuse mène à des performances économiques et énergétiques supérieures comparativement à une stratégie de commande de base pour une usine avec HPGR. Des performances équivalentes peuvent toutefois être obtenues autant avec une EMPC qu'avec une stratégie décentralisée faisant appel à des régulateurs PI. / Mineral processing comprises two steps : comminution and separation of the particles. The first one includes grinding, an energy-inefficient process consuming about half the energy of mine sites. It was previously demonstrated that replacing conventional grinding technologies by high-pressure grinding rolls (HPGR) reduces the specific energy consumption of mineral processing plants. The different breakage mechanisms explain these results. In contrast to conventional grinding mills that break particles by impact and attrition, the HPGR fragments them by compression, which exhibits higher energy efficiency. Replacing current process control systems with economic model predictive control (EMPC) could further reduce the energy consumption of HPGR grinding circuits since it considers the energy cost within its objective function. This solution remains unexplored as of now. This work aims at filling this gap. Doing so requires programming HPGR and flotation simulators. The literature already contains several HPGR models. Most of them, however, assume the ore does not slip against the surface of the rolls even though this assumption has yet to be validated. This research therefore aims: 1. to verify whether the ore fragments may slip or not in the HPGR working gap; 2. to develop an HPGR simulator enabling the study of plant-wide process control; 3. to model mathematically the flotation response to the grinding product characteristics, and 4. to quantify the performance of plant-wide EMPC in a simulated case study using specific energy consumption and the product net value as metrics. The results invalidate several HPGR models by showing, through a mass balance, that the ore fragments slip in the HPGR working gap for a data set. Developing an observer allowed quantifying the speed at which they do. It makes use of force, mass, and energy balances, the Coulomb friction criterion, and other empirical models. This thesis then presents a novel HPGR model that makes no restricting hypothesis regarding slip. It considers several parallel plug flow reactors along the length of the rolls. It comprises four sub-models: 1. working gap - empirical function of the specific force; 2. product mass flow rate - continuity equation improved with a correction factor; 3. power draw - function of the grinding force application angle, and 4. product particle size distribution - cumulative population balance model solved in the energy domain. Calibrating the model on 18 data sets allowed evaluating its validity. The manuscript follows with the proposal of an empirical model for the flotation kinetic constant as a function of the particle size and composition. It therefore links the flotation process performance to the grinding circuit, in turn allowing the plant-wide process control study to take place. To do so, the simulator introduces a given disturbance sequence to different control strategies. It makes use of energy efficiency and product hourly net value as comparison metrics. The main results are listed thereafter. 1. In contrast to a control system maintaining constant feed rate, a system that manipulates this variable consumes less specific energy and generates more profits even though the metal recovery decreases. 2. A control strategy based on decentralized proportional-integral (PI) controllers allows generating the same economic output as the EMPC because the system's constraints define the economic optimum. 3. EMPC can reduce the grinding circuit specific energy consumption by including a penalty for HPGR power draw in the objective function, albeit at the cost of a lower economic performance. Overall, the research shows that a well-designed multivariable control system results in higher economic performance and energy efficiency in comparison to a basic regulatory control system for a plant comprising HPGR grinding. This being said, both EMPC and PI-based decentralized regulatory control produce equivalent performances. / Thèse ou mémoire avec insertion d'articles.
|
44 |
Simulating surface water and groundwater flow dynamics in tile-drained catchmentsSchepper, Guillaume de 23 April 2018 (has links)
Pratique agricole répandue dans les champs sujets à l’accumulation d’eau en surface, le drainage souterrain améliore la productivité des cultures et réduit les risques de stagnation d’eau. La contribution significative du drainage sur les bilans d’eau à l’échelle de bassins versants, et sur les problèmes de contamination dus à l’épandage d’engrais et de fertilisant, a régulièrement été soulignée. Les écoulements d’eau souterraine associés au drainage étant souvent inconnus, leur représentation par modélisation numérique reste un défi majeur. Avant de considérer le transport d’espèces chimiques ou de sédiments, il est essentiel de simuler correctement les écoulements d’eau souterraine en milieu drainé. Dans cette perspective, le modèle HydroGeoSphere a été appliqué à deux bassins versants agricoles drainés du Danemark. Un modèle de référence a été développé à l’échelle d’une parcelle dans le bassin versant de Lillebæk pour tester une série de concepts de drainage dans une zone drainée de 3.5 ha. Le but était de définir une méthode de modélisation adaptée aux réseaux de drainage complexes à grande échelle. Les simulations ont indiqué qu’une simplification du réseau de drainage ou que l’utilisation d’un milieu équivalent sont donc des options appropriées pour éviter les maillages hautement discrétisés. Le calage des modèles reste cependant nécessaire. Afin de simuler les variations saisonnières des écoulements de drainage, un modèle a ensuite été créé à l’échelle du bassin versant de Fensholt, couvrant 6 km2 et comprenant deux réseaux de drainage complexes. Ces derniers ont été simplifiés en gardant les drains collecteurs principaux, comme suggéré par l’étude de Lillebæk. Un calage du modèle par rapport aux débits de drainage a été réalisé : les dynamiques d’écoulement ont été correctement simulées, avec une faible erreur de volumes cumulatifs drainés par rapport aux observations. Le cas de Fensholt a permis de valider les conclusions des tests de Lillebæk, ces résultats ouvrant des perspectives de modélisation du drainage lié à des questions de transport. / Tile drainage is a common agricultural management practice in plots prone to ponding issues. Drainage enhances crop productivity and reduces waterlogging risks. Studies over the last few decades have highlighted the significant contribution of subsurface drainage to catchments water balance and contamination issues related to manure or fertilizer application at the soil surface. Groundwater flow patterns associated with drainage are often unknown and their representation in numerical models, although powerful analysis tools, is still a major challenge. Before considering chemical species or sediment transport, an accurate water flow simulation is essential. The integrated fully-coupled hydrological HydroGeoSphere code was applied to two highly tile-drained agricultural catchments of Denmark (Lillebæk and Fensholt) in the present work. A first model was developed at the field scale from the Lillebæk catchment. A reference model was set and various drainage concepts and boundary conditions were tested in a 3.5 ha tile-drained area to find a suitable option in terms of model performance and computing time for larger scale modeling of complex drainage networks. Simulations suggested that a simplification of the geometry of the drainage network or using an equivalent-medium layer are suitable options for avoiding highly discretized meshes, but further model calibration is required. A catchment scale model was subsequently built in Fensholt, covering 6 km2 and including two complex drainage networks. The aim was to perform a year-round simulation accounting for variations in seasonal drainage flow. Both networks were simplified with the main collecting drains kept in the model, as suggested by the Lillebæk study. Calibration against hourly measured drainage discharge data was performed resulting in a good model performance. Drainage flow and flow dynamics were accurately simulated, with low cumulative error in drainage volume. The Fensholt case validated the Lillebæk test conclusions, allowing for further drainage modeling linked with transport issues.
|
45 |
Synthèse de canaux de Rice et de Raleigh en chambre de réverbérationAmador, Emmanuel 13 April 2018 (has links)
Les chambres de réverbération, originellement conçues pour la compatibilité électromagnétique, connaissent un nouvel essor depuis quelques années. Elles sont de plus en plus utilisées pour simuler des canaux de communication. L'objectif fondamental de ce travail de recherche est la conception et la fabrication d 'une chambre de réverbération de faible encombrement pour récréer de manière physique des canaux de communi~ation à partir de 800 MHz. Un tel dispositif est un atout précieux pour l'étude et le développement de systèmes de communication mobiles, car il permet dans un laboratoire de confronter le système de communication à des conditions comparables aux conditions réelles et facilement reproductibles. L'utilisation d 'une chambre de réverbération permet de s'affranchir des défauts des générateurs de canaux électroniques dont le débit est souvent limité et dont le caractère aléatoire est souvent très discutable. La chambre de réverbération devient donc un outil de choix pour le développement de systèmes mobiles à haut débit. Ce mémoire présente succinctement les canaux de communications multitrajets et les chambres de réverbération et aborde la conception de notre chambre de réverbération à travers des considérations théoriques et des simulations numériques. Finalement les performances de notre chambre de réverbération sont présentées et analysées.
|
46 |
Comparaison de méthodes d'imputation de données manquantes dans un contexte de modèles d'apprentissage statistiqueBouchard, Simon 12 November 2023 (has links)
Titre de l'écran-titre (visionné le 6 juin 2023) / Le sujet de ce mémoire concerne l'utilisation de données incomplètes qui sont utilisées à des fins d'apprentissage statistique, dans un contexte où une méthode de traitement des données manquantes a été appliquée aux données. La problématique motivant ce travail est la prédiction de l'abandon scolaire chez les étudiants collégiaux. La caractéristique principale de la non-réponse au sein de ces données est que les étudiants ayant le statut d'immigrant ont une non-réponse quasi complète pour certaines variables. À partir d'une étude de simulation répliquant le comportement des données collégiales, différentes méthodes d'imputation sont utilisées sur des jeux de données ayant différentes configurations de non-réponse. Ces données imputées sont ensuite utilisées pour entraîner des modèles d'apprentissage statistique afin d'en évaluer les performances. À partir des résultats de cette étude de simulation, les combinaisons de méthodes d'imputation et de modèles d'apprentissage statistique ayant le mieux performé au niveau des prédictions sont appliquées aux données collégiales afin de déterminer quelles méthodes d'imputation permettent d'obtenir les meilleures performances prédictives. / This thesis deals with the use of incomplete data, to which a missing data treatment has been applied, in a statistical learning problem. The issue motivating this project is the prediction of school dropout among college students. The main characteristic of non-response in these data is that students with immigrant status have non-response for almost all the variables. Based on a simulation study replicating the behavior of college data, different imputation methods are applied on datasets with different nonresponse patterns. The imputed data are then used to train statistical learning models and to evaluate their performance. Based on the results of the simulation study, the best-performing combinations of imputation methods and statistical learning models are applied to college data.
|
47 |
Conceptualisation des fonctions exécutives : prolifération, organisation et mesurePackwood, Sonia 18 April 2018 (has links)
Malgré les nombreuses recherches sur le sujet, le concept des Fonctions Executives (FEs) demeure vague et difficilement opérationnalisable. La présente thèse utilise une approche multi-perspective afin d'améliorer leur conceptualisation. Plus précisément, elle étudie la prolifération, l'organisation et la mesure des FEs. La prolifération des FEs est mesurée à travers une revue de 60 études qui identifient 68 FEs. Une analyse sémantique latente (ASL) ainsi qu'une analyse de classification hiérarchique (ACH) permettent de réduire cet ensemble à 18 FEs en diminuant le chevauchement conceptuel et psychométrique entre les FEs. Une analyse factorielle est utilisée pour vérifier l'organisation et la mesure des FEs. Celle-ci examine la relation entre trois FEs (i.e., inhibition, Mémoire de Travail [MdT] et planification) à l'aide de neuf tâches neuropsychologiques classiques et d'une simulation de la cognition dynamique (CD). Cette simulation reproduit une situation réelle de prise de décision complexe et dynamique. Une analyse factorielle confirmatoire est effectuée sur la performance de 121 participants âgés entre 18 et 50 ans ayant complété les 10 tâches. Les résultats supportent l'hypothèse d'un modèle unitaire des FEs et de la relation significative entre ce concept et celui de la CD à travers lequel un ensemble de FEs peuvent être mesurées simultanément.
|
48 |
Conception et mise en œuvre de multichronia, un cadre conceptuel de simulation visuelle interactiveRioux, François 16 April 2018 (has links)
Cette thèse présente Multichronia, un cadre conceptuel de simulation interactive fournissant une représentation visuelle du cheminement d'un utilisateur dans l'exploration des simulations d'un système complexe. En complément aux méthodes formelles d'analyse, Multichronia vise à aider ses utilisateurs à comprendre un système sous étude en fournissant quatre boucles interactives. La boucle d'exploration de l'espace des paramètres permet à un utilisateur de modifier des paramètres de simulation afin de tester des hypothèses. La boucle d'exploration de l'espace des simulations lui permet de manipuler les données correspondant à des instances de simulation. Notamment, elle rend disponible des opérations de sélection et d'alignement via une interface graphique. La boucle d'exploration de l'espace des données lui permet de transformer les flots de données. Finalement, la boucle d'exploration de l'espace visuel lui permet d'afficher des données et de manipuler leur aspect visuel. Afin de représenter le cheminement d'un utilisateur dans son exploration de l'espace des paramètres, une interface graphique a été développée. Il s'agit de Varbre multichro-nique, une vue formelle donnant une représentation informative de l'état de l'analyse d'un problème ainsi que la possibilité d'exécuter une foule d'opérations interactives. D'autre part, le cadre conceptuel Multichronia forme un pipeline de données générique allant d'un simulateur jusqu'à un logiciel d'analyse. Un modèle conceptuel peut être extrait de ce pipeline de même que le flux de données correspondant. Dans cette thèse, il a été spécialisé avec la technologie XML. Cette dernière permet entre autres de définir une méthodologie de conception du modèle de données associé à un simulateur. La mise en oeuvre de Multichronia a permis de vérifier la validité des concepts proposés. L'architecture logicielle adoptée est un cadre d'application, de sorte que de nouveaux simulateurs puissent être facilement exploités. Deux applications concrètes ont été implantées, soit la simulation tactique et stratégique de l'attaque de convois militaires. Des modifications mineures aux simulateurs ont été nécessaires afin qu'ils rencontrent certains critères établis dans cette thèse. Somme toute, ces applications ont montré que Multichronia peut être déployé pour des applications quelconques.
|
49 |
Influence du vieillissement sur le contrôle visuo-locomoteur utilisé pour contourner un piéton approchant avec différents patrons de marcheFiset, Félix 13 December 2023 (has links)
L'objectif de ce mémoire est de mieux comprendre les informations utilisées par de jeunes adultes et des personnes âgées en santé relativement aux mouvements locomoteurs d'une autre personne pour la contourner dans un environnement représentatif de la marche en communauté. Pour ce faire, deux projets ont été réalisés dans un environnement virtuel représentant un centre commercial. Dans le premier projet (chapitre 2), dix jeunes adultes avaient comme consigne de se diriger vers un café situé devant eux et de contourner au besoin un piéton virtuel approchant avec différents patrons de marche : mouvements locomoteurs normaux; aucun mouvement des bras ; aucun mouvement des jambes ; aucun mouvement des bras et des jambes. Dans le deuxième projet (chapitre 3), 14 jeunes adultes et 14 personnes âgées ont été recrutés afin de réaliser une tâche similaire à la première étude, mais cette fois-ci, avec un piéton virtuel ayant une trajectoire de marche initialement imprévisible. La trajectoire de marche, le dégagement minimal, la vitesse de marche, les stratégies de réorientation du corps et les stratégies visuelles ont été étudiés. Des analyses non paramétriques de données longitudinales ont été utilisées pour comparer les variables entre les âges et les conditions. L'absence de mouvements des bras et des jambes d'un piéton se traduisait par une stratégie de contournement plus conservatrice tant chez les jeunes que chez les personnes âgées en augmentant les distances maintenues avec le piéton. Les personnes âgées avaient besoin de plus de temps pour traiter l'information, ce qui résultait en une déviation de trajectoire plus tardive et une attention visuelle davantage dirigée sur le piéton. Ces changements liés au vieillissement pourraient se traduire par un risque accru de chutes chez les populations âgées présentant des troubles d'équilibre et contribuer à limiter la marche dans la communauté. / The objective of this master's thesis was to better understand the information used by healthy young and older adults during circumvention depending on the locomotor movements of another pedestrian within an environment representative of community walking. To do this, two projects were carried out in a virtual environment representing a shopping mall. In the first project (Chapter 2), ten young adults were instructed to walk towards a coffee shop located in front of them and to circumvent an approaching virtual pedestrian with different locomotor movements: Normal locomotor movement; No arm movement; No leg movement; No arm and leg movement. In the second project (Chapter 3), 14 young adults and 14 older adults were recruited to perform a task similar to the first study, but this time with a virtual pedestrian approaching with an initially unpredictable trajectory. Walking trajectory, minimum clearance, walking speed, body reorientation strategies and gaze behaviour were studied. Non parametric Analyses of Longitudinal Data were used to compare variables across the age groups and conditions. The absence of arm and leg movements from a pedestrian resulted in a more cautious strategy for both young and older adults by increasing the distances maintained with the pedestrian. The older adults needed more time to process visual information, which resulted in a later trajectory deviation and more visual attention directed to the pedestrian. These age-related changes could result in an increased risk of falls in older adult populations with reduced balance and mobility and contribute to limiting community ambulation.
|
50 |
Estimation non-paramétrique d'anticipations subjectives de variables aléatoires continues : une application au jeu de confianceBissonnette, Luc 12 April 2018 (has links)
Tableau d'honneur de la Faculté des études supérieures et postdoctorales, 2006-2007 / Ce mémoire propose une méthode non-paramétrique pour estimer la distribution des anticipations subjectives face à la réalisation d'une variable aléatoire continue. Cette méthode d'estimation, utilisant des splines cubiques, permet d'obtenir une estimation de la fonction de distribution sans supposer qu'elle appartient à une famille de fonctions paramétriques. Afin d'illustrer une application possible de cette méthode, un modèle structurel a été estimé dans le but de séparer le rôle des anticipations et des préférences sociales dans une décision en contexte de laboratoire. La décision étudiée est celle d'envoyer ou de garder sa dotation initiale dans un jeu de confiance, inspiré du protocole présenté par Berg et al. (1995). Cette décision étant souvent interprétée comme une mesure de confiance, il a semblé intéressant de vérifier si les anticipations face au comportement des individus motivent effectivement la décision des participants. À la lueur des estimations réalisées, il semblerait que, bien que les anticipations subjectives jouent un rôle dans la décision d'envoyer ou de garder sa dotation initiale, il s'agit d'un rôle secondaire. Le principal facteur motivant cette décision serait plutôt lié aux préférences sociales des individus, ce qui remet en doute sa pertinence comme mesure de confiance.
|
Page generated in 0.1566 seconds