• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 484
  • 71
  • 41
  • 4
  • 3
  • Tagged with
  • 627
  • 228
  • 154
  • 79
  • 73
  • 69
  • 68
  • 64
  • 57
  • 56
  • 51
  • 46
  • 44
  • 43
  • 40
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
171

Le travail émotionnel des professionnels de santé à l’hôpital : caractérisation et leviers d'action organisationnels / The emotional labor of hospital health care professionals

Dickason, Rebecca 13 December 2017 (has links)
Traduit en français en 2017, l’ouvrage séminal de la sociologue Arlie Russell Hochschild, The Managed Heart (1983), approfondit le « travail émotionnel », un concept ensuite repris dans plusieurs champs disciplinaires et contextes d’étude, et qui est au coeur des exigences émotionnelles identifiées par Gollac & Bodier (2010) comme un des facteurs de risques psychosociaux (RPS). Haut lieu d’émotions, où l’« extra-ordinaire » (la maladie, la souffrance, la mort) fait partie du quotidien, l’hôpital est un environnement particulier pour effectuer le travail émotionnel. Ce dernier suppose (1) de gérer ses propres émotions, (2) d’afficher ou d’exprimer certaines émotions pour agir sur celles du patient, (3) en se conformant à certaines « règles émotionnelles », (4) dans un cadre pétri d’une charge émotionnelle variable. Cette thèse vise l’approfondissement du concept de travail émotionnel à l’hôpital : sa caractérisation, sa définition ainsi que les leviers d’action organisationnels susceptibles de faciliter sa réalisation et d’agir sur ses conséquences. Le travail de terrain a été mené dans un CHU auprès de médecins, d’infirmières et d’aides-soignantes dans des services de soins, relevant de différentes spécialités médicales (urgences, gériatrie, rééducation, neurologie), et accueillant des patients vulnérables ou dépendants. Il repose sur une production de données combinant entretiens, observation directe / observation participante et analyse de documents internes. Les résultats émergeant du travail empirique éclairent le travail émotionnel hospitalier dans un cadre français, son importance pour le professionnel de santé et pour le patient. Ils mettent en avant plusieurs éléments : la nature des « règles émotionnelles » dominantes, la modulation de leur appropriation par les professionnels de santé, les différences de charge émotionnelle entre services, la « pénibilité émotionnelle », des indices de fatigue de compassion (un concept qui diffère de l’épuisement émotionnel), le rôle du travail émotionnel dans la prise en charge du patient. Les leviers d’action organisationnels soulignés sont multiples. Il s’agit (1) d’assurer un socle commun de connaissances/compétences par des formations ciblées et/ou transversales, de faciliter les possibilités de self-care et (2) d’encourager les pratiques « vertueuses » que sont les dynamiques de soutien social, l’aménagement de moments de coupure, l’instauration des conditions temporelles et matérielles d’une régulation émotionnelle collective et la réaffirmation de la place du patient dans le service. / Translated into French in 2017, sociologist Arlie Russell Hochschild’s seminal work, The Managed Heart (1983), elaborated the concept of “emotional labor” which has subsequently given rise to studies in several disciplinary fields and contexts and which is central to the emotional demands identified by Gollac & Bodier (2010) as one psychosocial risk factor. As a place rich in emotions where the “extra-ordinary” (illness, suffering and death) is an everyday experience, the hospital is a particular environment for the performance of emotional labor, which involves (1) the management of one’s own emotions, (2) showing or expressing certain emotions in order to influence those of the patient, (3) by following “emotional rules”, all (4) within a context marked by a weight of emotions. This thesis endeavors to offer an in-depth examination of hospital emotional labor: characterizing and defining the concept, as well as discussing the organizational levers that could improve how it might be performed and control its consequences. The fieldwork was carried out in a teaching hospital and concerned doctors, nurses, orderlies / nursing assistants working in departments belonging to different medical specialisations (accident and emergency, geriatrics, rehabilitation, neurology) treating vulnerable or dependent patients. Data production was based on interviews, direct and participant observation and analysis of internal documents. The results of this empirical work shed light on hospital emotional labor in France and its importance for the health professional and the patient. They highlight several elements: the nature of the prevailing “emotional rules”, how (far) they are appropriated by health professionals, how the emotional burden differs between departments, the “emotionally onerous nature of the work”, signs of compassion fatigue (not the same concept as burnout) and the role of emotional labor in patient care. A substantial number of organizational levers are outlined: (1) ensuring common knowledge and skills through targeted or broad-based training, facilitating the opportunities for self-care, (2) encouraging “virtuous” practices consisting in social support dynamics, work breaks, making time and space for collective emotional regulation and reaffirming the place of the patient within the care context.
172

Modélisation et implémentation de simulations multi-agents sur architectures massivement parallèles / Modeling and implementing multi-agents based simulations on massively parallel architectures

Hermellin, Emmanuel 18 November 2016 (has links)
La simulation multi-agent représente une solution pertinente pour l’ingénierie et l’étude des systèmes complexes dans de nombreux domaines (vie artificielle, biologie, économie, etc.). Cependant, elle requiert parfois énormément de ressources de calcul, ce qui représente un verrou technologique majeur qui restreint les possibilités d'étude des modèles envisagés (passage à l’échelle, expressivité des modèles proposés, interaction temps réel, etc.).Parmi les technologies disponibles pour faire du calcul intensif (High Performance Computing, HPC), le GPGPU (General-Purpose computing on Graphics Processing Units) consiste à utiliser les architectures massivement parallèles des cartes graphiques (GPU) comme accélérateur de calcul. Cependant, alors que de nombreux domaines bénéficient des performances du GPGPU (météorologie, calculs d’aérodynamique, modélisation moléculaire, finance, etc.), celui-ci est peu utilisé dans le cadre de la simulation multi-agent. En fait, le GPGPU s'accompagne d’un contexte de développement très spécifique qui nécessite une transformation profonde et non triviale des modèles multi-agents. Ainsi, malgré l'existence de travaux pionniers qui démontrent l'intérêt du GPGPU, cette difficulté explique le faible engouement de la communauté multi-agent pour le GPGPU.Dans cette thèse, nous montrons que, parmi les travaux qui visent à faciliter l'usage du GPGPU dans un contexte agent, la plupart le font au travers d’une utilisation transparente de cette technologie. Cependant, cette approche nécessite d’abstraire un certain nombre de parties du modèle, ce qui limite fortement le champ d’application des solutions proposées. Pour pallier ce problème, et au contraire des solutions existantes, nous proposons d'utiliser une approche hybride (l'exécution de la simulation est partagée entre le processeur et la carte graphique) qui met l'accent sur l'accessibilité et la réutilisabilité grâce à une modélisation qui permet une utilisation directe et facilitée de la programmation GPU. Plus précisément, cette approche se base sur un principe de conception, appelé délégation GPU des perceptions agents, qui consiste à réifier une partie des calculs effectués dans le comportement des agents dans de nouvelles structures (e.g. dans l’environnement). Ceci afin de répartir la complexité du code et de modulariser son implémentation. L'étude de ce principe ainsi que les différentes expérimentations réalisées montre l'intérêt de cette approche tant du point de vue conceptuel que du point de vue des performances. C'est pourquoi nous proposons de généraliser cette approche sous la forme d'une méthodologie de modélisation et d'implémentation de simulations multi-agents spécifiquement adaptée à l'utilisation des architectures massivement parallèles. / Multi-Agent Based Simulations (MABS) represents a relevant solution for the engineering and the study of complex systems in numerous domains (artificial life, biology, economy, etc.). However, MABS sometimes require a lot of computational resources, which is a major constraint that restricts the possibilities of study for the considered models (scalability, real-time interaction, etc.).Among the available technologies for HPC (High Performance Computing), the GPGPU (General-Purpose computing on Graphics Processing Units) proposes to use the massively parallel architectures of graphics cards as computing accelerator. However, while many areas benefit from GPGPU performances (meteorology, molecular dynamics, finance, etc.). Multi-Agent Systems (MAS) and especially MABS hardly enjoy the benefits of this technology: GPGPU is very little used and only few works are interested in it. In fact, the GPGPU comes along with a very specific development context which requires a deep and not trivial transformation process for multi-agents models. So, despite the existence of works that demonstrate the interest of GPGPU, this difficulty explains the low popularity of GPGPU in the MAS community.In this thesis, we show that among the works which aim to ease the use of GPGPU in an agent context, most of them do it through a transparent use of this technology. However, this approach requires to abstract some parts of the models, what greatly limits the scope of the proposed solutions. To handle this issue, and in contrast to existing solutions, we propose to use a nhybrid approach (the execution of the simulation is shared between both the processor and graphics card) that focuses on accessibility and reusability through a modeling process that allows to use directly GPU programming while simplifying its use. More specifically, this approach is based on a design principle, called GPU delegation of agent perceptions, consists in making a clear separation between the agent behaviors, managed by the processor, and environmental dynamics, handled by the graphics card. So, one major idea underlying this principle is to identify agent computations which can be transformed in new structures (e.g. in the environment) in order to distribute the complexity of the code and modulate its implementation. The study of this principle and the different experiments conducted show the advantages of this approach from both a conceptual and performances point of view. Therefore, we propose to generalize this approach and define a comprehensive methodology relying on GPU delegation specifically adapted to the use of massively parallel architectures for MABS.
173

Entre famille, indifférence et identité : vers une analyse psychosociologique développementale compréhensive des premiers quartiers de la ville de Trois-Rivières, tels qu'ils se racontent et tels qu'ils se vivent

Trudel, Stéphane January 2020 (has links) (PDF)
No description available.
174

Dialectics and experimental biology

Supple, J. M. 25 April 2018 (has links)
No description available.
175

Les cratères corinthiens de la seconde moitié du VIe siècle

Ouimet, Lucie-Catherine 02 1900 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal. / La céramique de production corinthienne a été dans le passé le sujet de quelques études spécialisées. Parmi ces diverses analyses, il existe de nombreuses interprétations quant aux questions attributaires. En effet, les vases du Corinthien récent, dont la production se résume principalement aux amphores et cratères, n'ont jamais fait l'objet d'études approfondies. Conséquemment, ces vases publiés assignés à cette période sont sujets à des attributions contradictoires. Cette étude vise donc l'identification des ateliers de productions de vases, ces derniers étant sélectionnés dans un corpus du Corinthien récent. Nous avons alors procédé à un examen approfondi des éléments physionomiques, ornementaux et morphologiques. Nous avons suivi d'une part, les méthodes analytiques utilisées par Beazley pour les vases de figure rouge attique et par Neeft pour les aryballes protocorinthiens, qui adoptent une approche synthétique visant l'identification des configurations récurrentes décoratives et morphologiques. D'autre part, nous avons identifié des groupements pouvant être associés à des artistes ou à des ateliers. À partir des configurations ornementales, des considérations morphologiques et des analyses stylistiques des variables choisies, nous avons identifié des groupements élémentaires distinguant des ateliers ou encore des périodes de production. On remarque, selon les variables identifiées, quatre regroupements à partir desquels on a pu identifier, selon les cas, des mains. Nos quatre groupes, Hippolyte, Andromède, Tydeus et Sphortos, possèdent chacun des caractéristiques qui leur sont propres. Parmi certains de ces groupements s'associent des séries comportant des spécificités pouvant être identifiées à une même main. Par exemple, dans le groupe d'Andromède, on remarque un ensemble, le sous-groupe d' Amphiaraos, qm se distingue par ses scènes particulières. Par ailleurs, nous avons également inclus dans nos recherches, les fragments de cratères à colonnettes mis au jour lors des fouilles de l'Université de Montréal à Argilos (Grèce du Nord). Par leurs particularités morphologiques et stylistiques, ces éléments, bien que fragmentaires, se rattachent au groupe d'Andromède et possèdent quelques attributs des groupes de Tydeus et de Sphortos par leurs décors secondaires. Ces fragments inédits constituent un apport non négligeable dans l'identification et l'observation de caractéristiques stylistiques des vases du Corinthien récent. En conclusion, ce mémoire se veut une mise au point d'un thème encore peu abordé dans le domaine des céramiques anciennes, soit l'étude des peintres et ateliers de Corinthe de la seconde moitié du VIe siècle avant notre ère.
176

Évaluation des incertitudes sur les données expérimentales prises dans la soufflerie trisonique de RDDC Valcartier

Lim, Chin 13 April 2018 (has links)
Le but de ce projet est d'obtenir et d'appliquer une méthodologie disponible dans la littérature pour quantifier les incertitudes sur les données expérimentales prises dans la soufflerie trisonique de Recherche et Développement pour la Défense Canada - Valcartier (RDDC Valcartier). La motivation de cette étude vient du fait que la qualité des mesures expérimentales joue un rôle très important dans le processus de développement de tout missile ou système d'armes à RDDC Valcartier. Nous constatons l'importance du sujet par les conférences organisées par des instituts de renommée dans le domaine de l'aérodynamique tels que l'American Institute of Aeronautics and Astronautic (AIAA) et l'Advisory Group for Aerospace Research & Development (AGARD). Ces organismes exigent que les résultats expérimentaux présentés incluent un estimé de leurs incertitudes. La présente étude est basée sur des essais existants dans la base de données de RODC Valcartier en prenant en compte l'instrumentation disponible au moment des essais et revue en fonction de ce qui est disponible ou des améliorations apportées au système au cours des années. Par cette analyse, il a été décidé d'appliquer la méthodologie choisie à un essai réalisé à Mach 3,5, considérant la grande disponibilité des données existantes. En relevant des données des essais antérieurs, nous avons observé que le fait d'avoir remplacé le système de séchage d'air par un autre plus performant faisait augmenter le nombre de Mach en régime supersonique. Cette variation du nombre de Mach est probablement due à la réduction de la condensation l'humidité dans l'air pendant son expansion dans la section d'essai et ce fait sera également exposé dans cette étude. En nous fondant sur des recommandations dans les références telles que [AIAA, 1990] et [Association Française de Normalisation (AFNOR), 2005], nous avons remarqué que l'incertitude estimée sur quelques grandeurs mesurables était anormalement élevée, et par conséquent, les paramètres calculés à partir de ces grandeurs aussi. Cette étude aura aussi révélé que la balance aérodynamique est l'élément critique qui apporte les plus grandes incertitudes expérimentales sur les paramètres aérodynamiques et qu'elle n'était pas adéquate pour la mesure de quelques composantes de force pour l'essai étudié. Enfin, nous avons donné plusieurs recommandations afin de réduire les incertitudes des mesures expérimentales à des niveaux plus acceptables.
177

La recherche de déterminants génétiques dans l'asthme : contribution de deux méthodes génomiques

Madore, Anne-Marie 17 April 2018 (has links)
L'asthme est un trait complexe dont le phénotype est régulé par l'interaction de nombreux gènes et de l'environnement. Étant donné sa variabilité phénotypique, plusieurs individus asthmatiques ne répondent pas à la médication disponible. La recherche de nouvelles voies biologiques impliquées dans l'asthme est donc nécessaire. Les études d'expression génomique et les études d'association génomique (GWAS) permettent d'avoir une vue d'ensemble sur les gènes impliqués dans le développement d'un phénotype sans être biaisé par les connaissances actuelles et pourraient permettre la découverte de ces nouvelles voies. Ainsi, dans la première partie de cette thèse, une étude d'expression génomique a été utilisée pour caractériser les macrophages alvéolaires des individus asthmatiques en comparaison aux individus témoins. Cette étude a permis de cibler la famille des heat shock proteins (HSP), et plus particulièrement le gène HSPD1. De plus, la comparaison des données obtenues d'une étude d'expression génomique antérieure avec celles d'une étude récente a permis de démontrer que les études d'expression génomique sont un outil de sélection pertinent pour cibler de nouveaux gènes d'intérêt. La deuxième partie de cette thèse fait suite à la première GWAS effectuée dans l'asthme. Deux études présentées dans cette thèse ont permis de valider l'association des variants de la région 17q21 avec l'asthme dans un échantillon indépendant. Elles ont également permis d'initier la compréhension du mécanisme d'action par lequel ces variants régulent l'expression de certains gènes de cette région. Des études pour définir l'implication de HSPD1 dans les fonctions du macrophage alvéolaire ainsi que pour valider l'implication des gènes GSDMB, ORMDL3 et ZPBP2 dans l'asthme sont nécessaires afin de valider leur intérêt dans la recherche sur cette pathologie. Finalement, les différents éléments présentés dans cette thèse démontrent l'intérêt des techniques génomiques pour cibler de nouvelles voies biologiques liées au développement d'un phénotype en particulier.
178

Évaluation de la valeur de biens et services écologiques liés à l'agroforesterie : une approche expérimentale

Roy-Vigneault, Frédéric 16 April 2018 (has links)
L'étude suivante évalue de façon expérimentale la valeur que des individus accordent aux biens et services écologiques rattachés à l'aménagement de haies brise-vent et de bandes riveraines en milieu agricole. L'approche adoptée pour cette tâche permet d'attaquer des problématiques méthodologiques et scientifiques soulevées par les techniques d'évaluation du consentement à payer (CAP) pour des biens publics. En particulier, nous avons examiné si la méthode de l'évaluation contingente, méthode déclarative où les préférences sont obtenues dans des situations hypothétiques, présente un biais comparativement à une situation concrète de collecte de fond. Les résultats présentés démontrent la présence d'un biais hypothétique dans l'évaluation de bien public. Les données suggèrent que ces différences observées entre le contexte hypothétique et réel sont sensibles au degré de perception quant à la ±conséquence¿ de l'enquête pour les répondants. Également, les résultats indiquent qu'il n'y a pas de différence de CAP entre différents échantillons de la population du Québec lorsque les variables sociodémographiques sont prises en compte. Cela suggère que la localisation géographique du répondant n'a pas d'incidence sur son CAP.
179

Specimen theoriae novae de mensura complexus : Mesures objectives de la complexité = Objective measures of complexity / Mesures objectives de la complexité / Objective measures of complexity

Pronovost, Sylvain 24 April 2018 (has links)
Mesures Objectives de la Complexité pour la Prise de Décision Dynamique. La gestion efficace de systèmes sociotechniques complexes dépend d’une compréhension des interrelations dynamiques entre les composantes de ces systèmes, de leur évolution à travers le temps, ainsi que du degré d’incertitude auquel les décideurs sont exposés. Quelles sont les caractéristiques de la prise de décision complexe qui ont un impact sur la performance humaine dans l’environnement moderne du travail, constamment en fluctuation et sous la pression du temps, exerçant de lourdes demandes sur la cognition ? La prise de décision complexe est un concept issu de la macrocognition, impliquant des processus et des fonctions de bas et haut niveaux de description tels que la métacognition, soit pour un individu de penser à propos de son propre processus de pensées. Dans le cas particulier de la prise de décision complexe, ce phénomène est nommé la pensée systémique. L’étude de la prise de décision complexe en dehors de l’environnement traditionnel du laboratoire, permettant un haut niveau de contrôle mais un faible degré de réalisme, est malheureusement difficile et presque impossible. Une méthode de recherche plus appropriée pour la macrocognition est l’expérimentation basée sur la simulation, à l’aide de micromondes numérisés sous la forme de jeux sérieux. Ce paradigme de recherche est nommé la prise de décision dynamique (PDD), en ce qu’il tient compte des caractéristiques de problèmes de prise de décision complexe telles que des séquences complexes de décisions et de changements d’états d’un problème interdépendants, qui peuvent changer de façon spontanée ou comme conséquence de décisions préalables, et pour lesquels la connaissance et la compréhension du décideur peut n’être que partielle ou incertaine. Malgré la quantité de recherche concernant la PDD à propos des difficultés encourues pour la performance humaine face à des problèmes de prise de décision complexe, l’acquisition de connaissances à propos de systèmes complexes, et à savoir si le transfert de l’apprentissage est possible, il n’existe pas de mesure quantitative de ce en quoi un problème de décision est considéré comme étant complexe. La littérature scientifique mentionne des éléments qualitatifs concernant les systèmes complexes (tels que des interrelations dynamiques, une évolution non-linéaire d’un système à travers le temps, et l’incertitude à propos des états d’un système et des issues des décisions), mais des mesures quantitatives et objectives exprimant la complexité de problèmes de décision n’ont pas été développées. Cette dissertation doctorale présente les concepts, la méthodologie et les résultats impliqués dans un projet de recherche visant à développer des mesures objectives de la complexité basées sur les caractéristiques de problèmes de prise de décision dynamique pouvant expliquer et prédire la performance humaine. En s’inspirant de divers domaines d’application de la théorie de la complexité tels que la complexité computationnelle, la complexité systémique, et l’informatique cognitive, un modèle formel des paramètre de la complexité pour des tâches de prise de décision dynamique a été élaboré. Un ensemble de dix mesures objectives de la complexité a été développé, consistant en des mesures de la complexité structurelle, des mesures de la complexité informationnelle, la complexité de la charge cognitive, et des mesures de la difficulté d’un problème, de la non-linéarité des relations, de l’incertitude concernant l’information et les décisions, ainsi qu’une mesure de l’instabilité d’un système dynamique sous des conditions d’inertie. Une analyse des résultats expérimentaux colligés à partir de cinq scénarios de PDD révèle qu’un nombre restreint de candidats parmi des modèles de régression linéaires multiple permet d’expliquer et de prédire les résultats de performance humaine, mais au prix de certaines violations des postulats de l’approche classique de la régression linéaire. De plus, ces mesures objectives de la complexité présentent un degré élevé de multicolinéarité, causée d’une part par l’inclusion de caractéristiques redondantes dans les calculs, et d’autre part par une colinéarité accidentelle imputable à la conception des scénarios de PDD. En tenant compte de ces deux considérations ainsi que de la variance élevée observée dans les processus macrocognitifs impliqués dans la prise de décision complexe, ces modèles présentent des valeurs élevées pour le terme d’erreur exprimant l’écart entre les observations et les prédictions des modèles. Une analyse additionnelle explore l’utilisation de méthodes alternatives de modélisation par régression afin de mieux comprendre la relation entre les paramètres de la complexité et les données portant sur performance humaine. Nous avons d’abord opté pour une approche de régression robuste afin d’augmenter l’efficience de l’analyse de régression en utilisant une méthode réduisant la sensibilité des modèles de régression aux observations influentes. Une seconde analyse élimine la source de variance imputable aux différences individuelles en focalisant exclusivement sur les effets imputables aux conditions expérimentales. Une dernière analyse utilise des modèles non-linéaires et non-paramétriques afin de pallier les postulats de la modélisation par régression, à l’aide de méthodes d’apprentissage automatique (machine learning). Les résultats suggèrent que l’approche de régression robuste produit des termes d’erreur substantiellement plus faibles, en combinaison avec des valeurs élevées pour les mesures de variance expliquée dans les données de la performance humaine. Bien que les méthodes non-linéaires et non-paramétriques produisent des modèles marginalement plus efficients en comparaison aux modèles de régression linéaire, la combinaison de ces modèles issus du domaine de l’apprentissage automatique avec les données restreintes aux effets imputables aux conditions expérimentales produit les meilleurs résultats relativement à l’ensemble de l’effort de modélisation et d’analyse de régression. Une dernière section présente un programme de recherche conçu pour explorer l’espace des paramètres pour les mesures objectives de la complexité avec plus d’ampleur et de profondeur, afin d’appréhender les combinaisons des caractéristiques des problèmes de prise de décision complexe qui sont des facteurs déterminants de la performance humaine. Les discussions concernant l’approche expérimentale pour la PDD, les résultats de l’expérimentation relativement aux modèles de régression, ainsi qu’à propos de l’investigation de méthodes alternatives visant à réduire la composante de variance menant à la disparité entre les observations et les prédictions des modèles suggèrent toutes que le développement de mesures objectives de la complexité pour la performance humaine dans des scénarios de prise de décision dynamique est une approche viable à l’approfondissement de nos connaissances concernant la compréhension et le contrôle exercés par un être humain face à des problèmes de décision complexe. / Objective Measures of Complexity for Dynamic Decision-Making. Managing complex sociotechnical systems depends on an understanding of the dynamic interrelations of such systems’ components, their evolution over time, and the degree of uncertainty to which decision makers are exposed. What features of complex decision-making impact human performance in the cognitively demanding, ever-changing and time pressured modern workplaces? Complex decision-making is a macrocognitive construct, involving low to high cognitive processes and functions, such as metacognition, or thinking about one’s own thought processes. In the particular case of complex decision-making, this is called systems thinking. The study of complex decision-making outside of the controlled, albeit lacking in realism, traditional laboratory environment is difficult if not impossible. Macrocognition is best studied through simulation-based experimentation, using computerized microworlds in the form of serious games. That research paradigm is called dynamic decision-making (DDM), as it takes into account the features of complex decision problems, such as complex sequences of interdependent decisions and changes in problem states, which may change spontaneously or as a consequence of earlier decisions, and for which the knowledge and understanding may be only partial or uncertain. For all the research in DDM concerning the pitfalls of human performance in complex decision problems, the acquisition of knowledge about complex systems, and whether a learning transfer is possible, there is no quantitative measure of what constitutes a complex decision problem. The research literature mentions the qualities of complex systems (a system’s dynamical relationships, the nonlinear evolution of the system over time, and the uncertainty about the system states and decision outcomes), but objective quantitative measures to express the complexity of decision problems have not been developed. This dissertation presents the concepts, methodology, and results involved in a research endeavor to develop objective measures of complexity based on characteristics of dynamic decision-making problems which can explain and predict human performance. Drawing on the diverse fields of application of complexity theory such as computational complexity, systemic complexity, and cognitive informatics, a formal model of the parameters of complexity for dynamic decision-making tasks has been elaborated. A set of ten objective measures of complexity were developed, ranging from structural complexity measures, measures of information complexity, the cognitive weight complexity, and measures of problem difficulty, nonlinearity among relationships, information and decision uncertainty, as well as a measure of the dynamical system’s instability under inertial conditions. An analysis of the experimental results gathered using five DDM scenarios revealed that a small set of candidate models of multiple linear regression could explain and predict human performance scores, but at the cost of some violations of the assumptions of classical linear regression. Additionally, the objective measures of complexity exhibited a high level of multicollinearity, some of which were caused by redundant feature computation while others were accidentally collinear due to the design of the DDM scenarios. Based on the aforementioned constraints, and due to the high variance observed in the macrocognitive processes of complex decision-making, the models exhibited high values of error in the discrepancy between the observations and the model predictions. Another exploratory analysis focused on the use of alternative means of regression modeling to better understand the relationship between the parameters of complexity and the human performance data. We first opted for a robust regression analysis to increase the efficiency of the regression models, using a method to reduce the sensitivity of candidate regression models to influential observations. A second analysis eliminated the within-treatment source of variance in order to focus exclusively on between-treatment effects. A final analysis used nonlinear and non-parametric models to relax the regression modeling assumptions, using machine learning methods. It was found that the robust regression approach produced substantially lower error values, combined with high measures of the variance explained for the human performance data. While the machine learning methods produced marginally more efficient models of regression for the same candidate models of objective measures of complexity, the combination of the nonlinear and non-parametric methods with the restricted between-treatment dataset yielded the best results of all of the modeling and analyses endeavors. A final section presents a research program designed to explore the parameter space of objective measures of complexity in more breadth and depth, so as to weight which combinations of the characteristics of complex decision problems are determinant factors on human performance. The discussions about the experimental approach to DDM, the experimental results relative to the regression models, and the investigation of further means to reduce the variance component underlying the discrepancy between the observations and the model predictions all suggest that establishing objective measures of complexity for human performance in dynamic decision-making scenarios is a viable approach to furthering our understanding of a decision maker’s comprehension and control of complex decision problems.
180

Les obstacles de la connaissance quantitative et leur impact sur le raisonnement physique

El Haddati, M'Hamed 25 April 2018 (has links)
Québec Université Laval, Bibliothèque 2014

Page generated in 0.0771 seconds