• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 9
  • 2
  • Tagged with
  • 11
  • 11
  • 7
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Contribution à la méthodologie de l'expérimentation en pédagogie: neutralisation, mise en évidence, contrôle et différenciation de variables parasites

Halleux, Jacqueline January 1973 (has links)
Doctorat en sciences psychologiques / info:eu-repo/semantics/nonPublished
2

Aspects méthodologiques de l'étude de la prise de décision partagée et de son implantation dans les soins primaires

LeBlanc, Annie 16 April 2018 (has links)
La prise de décision partagée lors d'une rencontre clinique est le résultat d'interactions, d'échanges et d'influences entre le médecin et son patient. Les mesures et analyses effectuées dans un tel contexte devraient refléter la contribution spécifique de chacun des individus au sein de la dyade qu'ils représentent. Cependant, l'évaluation de ces aspects s'est limitée principalement à l'étude des perspectives individuelles des médecins et de leurs patients. En effet, ces aspects sont peu ou pas abordés dans les études portant sur la prise de décision partagée lors de rencontres cliniques. Par conséquent, l'objectif général de cette thèse était de consolider certains aspects méthodologiques reliés à l'étude de la prise de décision partagée entre les médecins et leurs patients et de son implantation dans les soins primaires. Tout d'abord, à l'aide d'une banque de données existante, nous avons démontré l'invariance de la structure factorielle de l'Échelle de conflit décisionnel entre la version destinée aux médecins et celle destinée aux patients. Cela implique qu'elle peut être complétée simultanément par les médecins et leurs patients afin de mesurer et comparer la contribution respective de chacun des membres de cette dyade. Par la suite, nous avons démontré que le recours à une stratégie d'analyse dyadique appliquée à la mesure du conflit décisionnel chez cette dyade permet d'identifier et de quantifier les influences qu'ils ont l'un sur l'autre en regard des facteurs contribuant à l'incertitude personnelle associée à ce conflit décisionnel. Cette étude a rapporté la présence d'influences négatives provenant de la perception des connaissances des bénéfices et risques associés aux options envisagées par l'un des membres de la dyade sur le niveau d'incertitude de l'autre membre de la dyade. Enfin, nous avons démontré dans le cadre d'un essai clinique pilote randomisé par grappes qu'il est possible de recruter des dyades de médecins et patients, de colliger des données simultanément chez les deux membres de ces dyades suite à une rencontre clinique et de former les médecins à la prise de décision partagée en soins primaires. En conclusion, cette thèse démontre la présence d'interactions et d'influences entre les médecins et leurs patients lors de rencontres cliniques dans lesquelles une décision est prise. Elle contribue au développement et à la consolidation d'aspects méthodologiques novateurs essentiels à l'étude rigoureuse de ces interactions et influences. Enfin, elle suggère que l'identification de ces manifestations entraîne la nécessité d'élaborer des interventions novatrices afin de permettre une application optimale des connaissances au sein des rencontres cliniques.
3

Études sur le traitement du delirium en phase avancée du cancer : faisabilité et résultats

Elie, Dominique 16 April 2018 (has links)
Tableau d’honneur de la Faculté des études supérieures et postdoctorales, 2009-2010 / Aucun essai clinique hasardisé permettant de confirmer l'efficacité des traitements pharmacologiques employés en clinique pour le delirium n'a été réalisé en cancer avancé. L'objectif principal de l'étude consistait à évaluer la faisabilité d'un essai clinique hasardisé à simple insu sur les traitements pharmacologiques du delirium chez cette population. L'objectif secondaire consistait à évaluer l'efficacité thérapeutique des interventions étudiées (halopéridol, méthylphénidate, risperidone, placebo). Les résultats obtenus démontrent que la faisabilité des essais cliniques est hautement problématique en cancer avancé, notamment à cause du faible recrutement. Aucune mesure préliminaire d'efficacité des interventions n'a pu être obtenue. L'efficacité de l'halopéridol et des psychostimulants (méthylphénidate) a dû être évaluée en analysant une banque de données et en effectuant une revue de la littérature, respectivement. Selon ces analyses, des doses initiales d'au moins 2 mg d'halopéridol réduiraient la durée du delirium et le méthylphénidate améliorerait les fonctions cognitives des patients en phase avancée de cancer.
4

La validité convergente des instruments auto-rapportés de la psychopathie : recension systématique et revue critique

Sériès, Thibaut 24 April 2018 (has links)
La mesure auto-rapportée de la psychopathie a été critiquée depuis sa création. Présentement, il n'existe toujours aucun consensus dans la littérature quant au questionnaire auto-rapporté qui serait le plus approprié pour évaluer la psychopathie. Ainsi, plusieurs questionnaires auto-rapportés sont utilisés dans la littérature, ce qui rend la comparaison des résultats difficile, voire impossible. Ce mémoire sera donc une revue critique qui aura pour objectif de répertorier et comparer les instruments auto-rapportés spécifiques à la psychopathie chez les adultes sur les plans de leur validité convergente avec la Psychopathy Checklist-Revised (PCL-R) ou sa version courte la Psychopathy Checklist-Screening Version (PCL-SV), et leurs populations d'utilisation. Tous les instruments auto-rapportés mesurant la psychopathie chez les adultes créés depuis la conceptualisation de la psychopathie de Cleckley en 1941 ont été répertoriés. Des corrélations pondérées moyennes entre les questionnaires auto-rapportés et la PCL-R/PCL-R ont été calculées. Dans des populations majoritairement composées de détenus, ce sont les facettes de la Self-Report Psychopathy scale – Short Form (SRP-SF) qui obtiennent les meilleurs indices de validité convergente avec leurs homologues de la PCL-R (r = .33, .43, .65 et .64) et c'est le Psychopathic Personality Inventory – Short Form (PPI-SF) total qui obtient la meilleure validité convergente avec la PCL-R total (r = .46). La psychopathie semble être une pathologie difficilement mesurable par questionnaire comparativement à plusieurs autres troubles de personnalité. Pour améliorer leur mesure, il est proposé que plusieurs items personnologiques des questionnaires soient reformulés et que le nombre d'items soit réduit.
5

Contribution empirique à l'appréciation du capital social dans un territoire

Martin-Caron, Laurence 19 April 2018 (has links)
La pertinence de l'appréciation du capital social des territoires est déjà reconnue par plusieurs théoriciens/praticiens québécois de l'organisation communautaire et de l'analyse de communauté. Toutefois, aucun outil d'appréciation à la fois efficace, utile à l'intervention, économique et permettant l'objectivation des données ne semble exister au Québec. La présente étude est une contribution empirique à l'appréciation du capital social dans un territoire. Cette contribution consiste en premier lieu à présenter une synthèse des connaissances théoriques et empiriques actuelles sur le capital social. On y présente les évolutions multiples du terme, la polysémie qui en découle ainsi que les constantes qui, à notre avis, transcendent la plupart des définitions. Pour l'essentiel, la notion de capital social retenue pour l'étude se rapporte aux réseaux sociaux à travers lesquels transigent des normes sociales qui régissent les interactions entre acteurs et la circulation des ressources permettant l'atteinte de buts individuels et collectifs. En second lieu, notre contribution consiste en la création d'un outil de mesure du capital social territorial. Une première version de l'outil fut créée en s'appuyant sur la littérature méthodologique produite depuis trois décennies. Les critères d'efficacité, d'utilité, d'économie des ressources et d'objectivation des résultats ont guidé les choix d'activités de mesure pour l'outil d'appréciation du capital social. L'outil ainsi construit fut expérimenté dans le quartier Saint-Roch de la Ville de Québec. Une version finale de l'outil, enrichie de constats sur les défis à relever dans la pratique, est présentée dans l'étude afin d'outiller les intervenants/chercheurs désirant reconduire l'expérience dans leur localité. Le troisième volet de notre contribution est l'analyse du capital social du quartier Saint-Roch de la Ville de Québec. En cohérence avec le choix de cadre conceptuel et de méthodologie, un portrait du capital social du quartier a été dressé en quatre sections : (1) la composition sociale de la communauté et le degré d'organisation des groupes sociaux (2) les normes de réciprocité, le contrôle social informel et la confiance chez les groupes sociaux et dans la communauté en général (3) la structure associative de la communauté (4) l'information et la communication chez les groupes sociaux et dans la communauté. La démarche a permis de dresser un portrait des dynamiques sociales influençant les interactions entre différents acteurs du quartier Saint-Roch.
6

Création d'un jeu de données synthétiques pour des données de santé

Ouffy, Oumaima 18 January 2023 (has links)
Les données récoltées sur des individus sont souvent difficiles à partager avec les chercheurs et à publier à cause des informations confidentielles qu'elles contiennent. Une solution qu'on peut faire pour faciliter l'accès à ces données est de créer un jeu de données synthétiques à partager avec les chercheurs. Ce jeu de données aurait les mêmes caractéristiques du jeu de données originales mais ne permettrait pas de révéler les informations confidentielles sur les participants. Nous étudions dans ce mémoire les enjeux techniques liés à la création des jeux de données synthétiques dans le domaine de la santé. Il faut notamment s'assurer que les modèles statistiques utilisés pour générer des données synthétiques soient assez flexibles pour bien modéliser les corrélations entre les variables collectées, tout en s'assurant de ne pas sur-ajuster ces modèles, ce qui pourrait nuire à la protection de la confidentialité. Le travail s'articulera autour de la création d'un jeu synthétique pour un sous-ensemble des données collectées par le Consortium d'identification précoce de la maladie d'Alzheimer - Québec (CIMA-Q), pour qui le partage des données à la communauté de recherche sur la maladie d'Alzheimer canadienne et internationale est un objectif important. / Data collected on individuals is often difficult to share with researchers and publish because of the confidential information it contains. A possible solution to facilitate the access to this data is to create a synthetic data set to share with researchers. This dataset would have the same characteristics of the original dataset but would not reveal the confidential information about the participants. We study here the technical issues related to the creation of such synthetic datasets in the health field. In particular, it must be ensured that the statistical models used are flexible enough to properly model the correlations between the variables collected, while making sure not to over-adjust them, which could harm the protection of confidentiality. The work will focus on the creation of a synthetic data for a subset of the data collected by the Consortium of Early Identification of Alzheimer's disease - Quebec (CIMA-Q), for whom the sharing of data with the community of Canadian and international Alzheimer's disease research is an important goal.
7

Specimen theoriae novae de mensura complexus : Mesures objectives de la complexité = Objective measures of complexity / Mesures objectives de la complexité / Objective measures of complexity

Pronovost, Sylvain 24 April 2018 (has links)
Mesures Objectives de la Complexité pour la Prise de Décision Dynamique. La gestion efficace de systèmes sociotechniques complexes dépend d’une compréhension des interrelations dynamiques entre les composantes de ces systèmes, de leur évolution à travers le temps, ainsi que du degré d’incertitude auquel les décideurs sont exposés. Quelles sont les caractéristiques de la prise de décision complexe qui ont un impact sur la performance humaine dans l’environnement moderne du travail, constamment en fluctuation et sous la pression du temps, exerçant de lourdes demandes sur la cognition ? La prise de décision complexe est un concept issu de la macrocognition, impliquant des processus et des fonctions de bas et haut niveaux de description tels que la métacognition, soit pour un individu de penser à propos de son propre processus de pensées. Dans le cas particulier de la prise de décision complexe, ce phénomène est nommé la pensée systémique. L’étude de la prise de décision complexe en dehors de l’environnement traditionnel du laboratoire, permettant un haut niveau de contrôle mais un faible degré de réalisme, est malheureusement difficile et presque impossible. Une méthode de recherche plus appropriée pour la macrocognition est l’expérimentation basée sur la simulation, à l’aide de micromondes numérisés sous la forme de jeux sérieux. Ce paradigme de recherche est nommé la prise de décision dynamique (PDD), en ce qu’il tient compte des caractéristiques de problèmes de prise de décision complexe telles que des séquences complexes de décisions et de changements d’états d’un problème interdépendants, qui peuvent changer de façon spontanée ou comme conséquence de décisions préalables, et pour lesquels la connaissance et la compréhension du décideur peut n’être que partielle ou incertaine. Malgré la quantité de recherche concernant la PDD à propos des difficultés encourues pour la performance humaine face à des problèmes de prise de décision complexe, l’acquisition de connaissances à propos de systèmes complexes, et à savoir si le transfert de l’apprentissage est possible, il n’existe pas de mesure quantitative de ce en quoi un problème de décision est considéré comme étant complexe. La littérature scientifique mentionne des éléments qualitatifs concernant les systèmes complexes (tels que des interrelations dynamiques, une évolution non-linéaire d’un système à travers le temps, et l’incertitude à propos des états d’un système et des issues des décisions), mais des mesures quantitatives et objectives exprimant la complexité de problèmes de décision n’ont pas été développées. Cette dissertation doctorale présente les concepts, la méthodologie et les résultats impliqués dans un projet de recherche visant à développer des mesures objectives de la complexité basées sur les caractéristiques de problèmes de prise de décision dynamique pouvant expliquer et prédire la performance humaine. En s’inspirant de divers domaines d’application de la théorie de la complexité tels que la complexité computationnelle, la complexité systémique, et l’informatique cognitive, un modèle formel des paramètre de la complexité pour des tâches de prise de décision dynamique a été élaboré. Un ensemble de dix mesures objectives de la complexité a été développé, consistant en des mesures de la complexité structurelle, des mesures de la complexité informationnelle, la complexité de la charge cognitive, et des mesures de la difficulté d’un problème, de la non-linéarité des relations, de l’incertitude concernant l’information et les décisions, ainsi qu’une mesure de l’instabilité d’un système dynamique sous des conditions d’inertie. Une analyse des résultats expérimentaux colligés à partir de cinq scénarios de PDD révèle qu’un nombre restreint de candidats parmi des modèles de régression linéaires multiple permet d’expliquer et de prédire les résultats de performance humaine, mais au prix de certaines violations des postulats de l’approche classique de la régression linéaire. De plus, ces mesures objectives de la complexité présentent un degré élevé de multicolinéarité, causée d’une part par l’inclusion de caractéristiques redondantes dans les calculs, et d’autre part par une colinéarité accidentelle imputable à la conception des scénarios de PDD. En tenant compte de ces deux considérations ainsi que de la variance élevée observée dans les processus macrocognitifs impliqués dans la prise de décision complexe, ces modèles présentent des valeurs élevées pour le terme d’erreur exprimant l’écart entre les observations et les prédictions des modèles. Une analyse additionnelle explore l’utilisation de méthodes alternatives de modélisation par régression afin de mieux comprendre la relation entre les paramètres de la complexité et les données portant sur performance humaine. Nous avons d’abord opté pour une approche de régression robuste afin d’augmenter l’efficience de l’analyse de régression en utilisant une méthode réduisant la sensibilité des modèles de régression aux observations influentes. Une seconde analyse élimine la source de variance imputable aux différences individuelles en focalisant exclusivement sur les effets imputables aux conditions expérimentales. Une dernière analyse utilise des modèles non-linéaires et non-paramétriques afin de pallier les postulats de la modélisation par régression, à l’aide de méthodes d’apprentissage automatique (machine learning). Les résultats suggèrent que l’approche de régression robuste produit des termes d’erreur substantiellement plus faibles, en combinaison avec des valeurs élevées pour les mesures de variance expliquée dans les données de la performance humaine. Bien que les méthodes non-linéaires et non-paramétriques produisent des modèles marginalement plus efficients en comparaison aux modèles de régression linéaire, la combinaison de ces modèles issus du domaine de l’apprentissage automatique avec les données restreintes aux effets imputables aux conditions expérimentales produit les meilleurs résultats relativement à l’ensemble de l’effort de modélisation et d’analyse de régression. Une dernière section présente un programme de recherche conçu pour explorer l’espace des paramètres pour les mesures objectives de la complexité avec plus d’ampleur et de profondeur, afin d’appréhender les combinaisons des caractéristiques des problèmes de prise de décision complexe qui sont des facteurs déterminants de la performance humaine. Les discussions concernant l’approche expérimentale pour la PDD, les résultats de l’expérimentation relativement aux modèles de régression, ainsi qu’à propos de l’investigation de méthodes alternatives visant à réduire la composante de variance menant à la disparité entre les observations et les prédictions des modèles suggèrent toutes que le développement de mesures objectives de la complexité pour la performance humaine dans des scénarios de prise de décision dynamique est une approche viable à l’approfondissement de nos connaissances concernant la compréhension et le contrôle exercés par un être humain face à des problèmes de décision complexe. / Objective Measures of Complexity for Dynamic Decision-Making. Managing complex sociotechnical systems depends on an understanding of the dynamic interrelations of such systems’ components, their evolution over time, and the degree of uncertainty to which decision makers are exposed. What features of complex decision-making impact human performance in the cognitively demanding, ever-changing and time pressured modern workplaces? Complex decision-making is a macrocognitive construct, involving low to high cognitive processes and functions, such as metacognition, or thinking about one’s own thought processes. In the particular case of complex decision-making, this is called systems thinking. The study of complex decision-making outside of the controlled, albeit lacking in realism, traditional laboratory environment is difficult if not impossible. Macrocognition is best studied through simulation-based experimentation, using computerized microworlds in the form of serious games. That research paradigm is called dynamic decision-making (DDM), as it takes into account the features of complex decision problems, such as complex sequences of interdependent decisions and changes in problem states, which may change spontaneously or as a consequence of earlier decisions, and for which the knowledge and understanding may be only partial or uncertain. For all the research in DDM concerning the pitfalls of human performance in complex decision problems, the acquisition of knowledge about complex systems, and whether a learning transfer is possible, there is no quantitative measure of what constitutes a complex decision problem. The research literature mentions the qualities of complex systems (a system’s dynamical relationships, the nonlinear evolution of the system over time, and the uncertainty about the system states and decision outcomes), but objective quantitative measures to express the complexity of decision problems have not been developed. This dissertation presents the concepts, methodology, and results involved in a research endeavor to develop objective measures of complexity based on characteristics of dynamic decision-making problems which can explain and predict human performance. Drawing on the diverse fields of application of complexity theory such as computational complexity, systemic complexity, and cognitive informatics, a formal model of the parameters of complexity for dynamic decision-making tasks has been elaborated. A set of ten objective measures of complexity were developed, ranging from structural complexity measures, measures of information complexity, the cognitive weight complexity, and measures of problem difficulty, nonlinearity among relationships, information and decision uncertainty, as well as a measure of the dynamical system’s instability under inertial conditions. An analysis of the experimental results gathered using five DDM scenarios revealed that a small set of candidate models of multiple linear regression could explain and predict human performance scores, but at the cost of some violations of the assumptions of classical linear regression. Additionally, the objective measures of complexity exhibited a high level of multicollinearity, some of which were caused by redundant feature computation while others were accidentally collinear due to the design of the DDM scenarios. Based on the aforementioned constraints, and due to the high variance observed in the macrocognitive processes of complex decision-making, the models exhibited high values of error in the discrepancy between the observations and the model predictions. Another exploratory analysis focused on the use of alternative means of regression modeling to better understand the relationship between the parameters of complexity and the human performance data. We first opted for a robust regression analysis to increase the efficiency of the regression models, using a method to reduce the sensitivity of candidate regression models to influential observations. A second analysis eliminated the within-treatment source of variance in order to focus exclusively on between-treatment effects. A final analysis used nonlinear and non-parametric models to relax the regression modeling assumptions, using machine learning methods. It was found that the robust regression approach produced substantially lower error values, combined with high measures of the variance explained for the human performance data. While the machine learning methods produced marginally more efficient models of regression for the same candidate models of objective measures of complexity, the combination of the nonlinear and non-parametric methods with the restricted between-treatment dataset yielded the best results of all of the modeling and analyses endeavors. A final section presents a research program designed to explore the parameter space of objective measures of complexity in more breadth and depth, so as to weight which combinations of the characteristics of complex decision problems are determinant factors on human performance. The discussions about the experimental approach to DDM, the experimental results relative to the regression models, and the investigation of further means to reduce the variance component underlying the discrepancy between the observations and the model predictions all suggest that establishing objective measures of complexity for human performance in dynamic decision-making scenarios is a viable approach to furthering our understanding of a decision maker’s comprehension and control of complex decision problems.
8

Élaborer une approche d'assistance à la navigation à inspiration cognitive pour les personnes souffrant d'une incapacité visuelle majeuret : cas du piéton non voyant

Yaagoubi, Reda 17 April 2018 (has links)
Les personnes non voyantes font face à des défis quotidiens au cours de leurs activités de navigation. Afin d’offrir des solutions technologiques pour les aider à surmonter ces défis, il est nécessaire d’élaborer une méthodologie de recherche appropriée qui prend en considération leurs besoins spécifiques. Cette méthodologie nécessite des connaissances multidisciplinaires et une capacité de travailler avec des équipes provenant de différents domaines. Nous entamons cette thèse par un aperçu sur les différentes approches de conception adoptées en ingénierie et en réadaptation. Nous exposerons les principes de l’approche classique d’ingénierie, puis du design participatif, ensuite du design universel et enfin notre nouvelle approche de conception que nous nommons ‘le design cognitif’. Nous mettons en évidence le potentiel de cette nouvelle approche pour fournir des solutions qui répondent aux attentes et aux besoins des personnes non voyantes. Cette approche sert à améliorer la conscience situationnelle chez ces individus pendant leurs activités de navigation dans des zones urbaines. Dans un premier temps, nous avons étudié la nature de la représentation mentale de l’espace chez les personnes non voyantes. Après cela, nous avons modélisé la configuration de cette représentation mentale en nous basant sur les schémas d’image. Ces schémas permettent de capturer de manière claire et significative les différentes relations qui existent entre les éléments de la représentation mentale. Ensuite, nous avons élaboré un modèle conceptuel sémantique de données spatiales utiles pour aider les individus non voyants dans leurs différentes tâches de navigation et de wayfinding. Ces données doivent être structurées de façon hiérarchique afin de garantir une meilleure communication entre l’outil d’assistance et l’utilisateur non voyant. Enfin, nous avons intégré ce modèle sémantique avec la norme ISO 19133:2005 développée pour soutenir les services de suivi et de navigation des clients mobiles. Nous avons aussi utilisé un scénario type de navigation qui illustre l’apport et la contribution du design cognitif pour concevoir des outils d’assistance pour les personnes non voyantes. / Blind people encounter many challenges during their daily activities of navigation. In order to develop technological solutions to assist them, it is necessary to elaborate an appropriate research methodology that take into account the specific needs of people suffering from such a disability. This methodology requires multidisciplinary knowledge and the ability to work with teams with widely different backgrounds. First of all, we propose an overview of different approaches of design adopted in rehabilitation and engineering, beginning with the classical engineering approach, then progressing to participatory design, universal design and a novel approach of design that we call ‘cognitive design’. Then, we highlight the potential of this latter approach in providing solutions that meet the expectations and the needs of disabled people. This approach helps to provide blind people with heightened situation awareness during their navigational activities within urban areas. At the beginning, we investigated the nature of the mental representation of space used by blind persons. We then represented this information using image schemata as these capture in a meaningful way the different features that make up the spatial configuration. Next, we elaborated a semantic model of useful geospatial data which will serve to assist the visually impaired in various tasks of navigation and wayfinding. These data must be hierarchically structured in order to guarantee a better communication between the device and blind users. After that, we integrated this semantic model with basic geographic information useful for tracking and navigation activities, using the ISO 19133:2005 data standard developed for Location-based Services. A typical scenario is used to show the contribution and value of adopting the cognitive design approach to develop an assistive tool for blind pedestrians.
9

Agent-based simulations for advanced supply chain planning : a methodological framework for requirements analysis and deployment

Santa-Eulalia, Luis-Antonio 16 April 2018 (has links)
Le paradigme multi-agents est largement utilisé pour concevoir des outils de simulation dédiés à la chaîne de création de valeur. En dépit de son attrait et de son ample utilisation dans la recherche, la technologie agent et son intégration avec des outils de planification de la chaîne de création de valeur distribuée représente encore un champ à explorer. En particulier, il existe une lacune de recherche dans la phase d'analyse des cadres méthodologiques basés sur le concept des multi-agents. Cette phase représente le premier effort de modélisation et influence considérablement le processus de création entier, ainsi que les simulations résultantes. Afin de contribuer à combler cette lacune, cette thèse présente un cadre méthodologique appelé FAMASS -Architecture FORAC pour modéliser des simulations multi-agents pour la planification des chaînes de création de valeur. L'approche FAMASS a l'intention de fournir une représentation uniforme d'un système distribué de planification avancée (d-APS) qui utilise la technologie multi-agents, un support à des analystes de simulation pour définir clairement les besoin fonctionnels des utilisateurs de scénarios de simulation, ainsi que leurs définitions expérimentales, et un guide aux analystes pour déployer les modèles d'analyse en modèles de spécification et de design. Par conséquent, la capitalisation de la connaissance et du savoir-faire des acteurs de la simulation est améliorée. Les scénarios de simulation sont donc modélisés plus vite, de façon plus précise, et ils sont éventuellement développés et utilisés. Le cadre méthodologique proposé est validé à travers une méthode de preuve-de-concept fondée sur un cas industriel solide et réaliste.
10

Les corps extraterrestres (roman) : suivi de Le jeu réaliste magique de la fiction : le réalisme magique narratif comme posture de lecture paradoxale (étude) et de Une thèse "100 modèles" : méthode et recherche-création (petit essai)

Landry, Pierre-Luc 19 April 2018 (has links)
Cette thèse de recherche-création en études littéraires se divise en trois parties. La première, Les corps extraterrestres, est un roman qui s’intéresse à deux personnages principaux, Xavier et Hollywood. Le roman, de facture existentialiste, oscille entre le réel et l’étrange, un peu à la manière du réalisme magique. Les deux personnages, lorsqu’ils s’endorment chacun de leur côté, se retrouvent ensemble dans des chambres d’hôtel puis à Montauk, dans une maison sur la plage, sans trop savoir pourquoi et comment ils y ont été transportés. Ils tentent de déterminer de quelle manière exister dans le monde, à travers une description minutieuse de leurs perceptions et émotions, qui s’effectue au moyen de la poésie pour Hollywood et du cahier de notes pour Xavier. La deuxième partie de la thèse est une étude théorique intitulée Le jeu réaliste magique de la fiction. Le réalisme magique comme posture de lecture paradoxale. Cette réflexion alliant théories des genres, théories de la réception, narratologie et histoire littéraire s’intéresse à ce qui se passe lorsqu’un lecteur entre dans un récit réaliste magique. En interrogeant les modalités narratives du réalisme magique et l’interaction entre le texte et le lecteur, nous en arriverons, au terme de cette étude, à postuler que le réalisme magique puisse être, en plus d’un mode narratif, une posture de lecture, un processus cognitif paradoxal pouvant faire sens de certaines œuvres romanesques contemporaines. La thèse se termine sur un petit essai en guise de conclusion, intitulé Une thèse « 100 modèles » : méthode et recherche création. La réflexion sur les manières d’effectuer une thèse de recherche-création est fondamentale dans le cadre d’un parcours comme le nôtre et cette troisième partie en laisse des traces pour justifier la démarche adoptée, pour l’expliciter, la montrer, la décrire, la définir, etc. Cette troisième partie s’interroge sur le sens des études supérieures en création littéraire et propose de réfléchir explicitement aux modalités de la recherche-création et au choix qui aura mené à l’écriture d’une thèse tripartite alliant écriture créative et recherche théorique.

Page generated in 0.5722 seconds