161 |
Évaluation du raisonnement clinique d'étudiantes et d'infirmières dans le domaine de la pédiatrie, à l'aide d'un test de concordance de scriptLatreille, Marie-Eve January 2012 (has links)
Le but de cette étude exploratoire est de déterminer si le test de concordance de script est un instrument capable de mesurer le raisonnement clinique d’étudiantes en formation et s’il peut déceler des différences entre le raisonnement clinique des novices et des expertes de la profession. Un TCS adapté au domaine des sciences infirmières et portant sur des champs particuliers de la pédiatrie a été administré à des candidates revendiquant différents niveaux d’expérience : des expertes du domaine (n=15), des infirmières (n=40) et des étudiantes de troisième année de formation (n=30). D’une durée de 20 minutes, le test a été pratiqué en ligne; il comptait 15 scénarios et 45 items au total. Les scores des étudiantes étaient significativement inférieurs aux scores des infirmières et des expertes. Le TCS est un instrument fiable et utile lorsqu’il s’agit de déterminer, en termes de raisonnement clinique, une différence de niveau entre la novice et l’experte.
|
162 |
Quand la Raison se mire dans le miroir de sorcière. Résonances de la pensée scientifique dans le récit fantastique des XIX et XX siècles / When reason looks at itself in a distorting mirror. The reflection of scientific thinking in the Fantastic literature of the nineteenth and twentieth centuriesLinck, Anouck 20 November 2010 (has links)
L’objectif de ce travail est d’étudier les résonances de la pensée scientifique dans les récits fantastiques du XIX et XX siècle et de revivifier, du même coup, l'approche théorique du genre fantastique. L'axe dorsal de ma thèse consiste à étudier le rapport du genre à la raison (la plasticité de ce concept permet de dépasser les découpages habituels entre science et non-science). Si l'on résume la position de la critique sur la question, on aboutit au constat suivant : le Fantastique met en exergue les carences de la raison. Il en souligne les défaillances, les limitations, les insuffisances, au nom de l’inexhaustible complexité du réel. L'image que le Fantastique véhicule de la raison est donc passablement négative, mais elle est liée à une conception classique de la rationalité, aujourd'hui périmée. L'image de la raison que proposent les sciences a considérablement évolué. Quelques unes des révolutions conceptuelles les plus marquantes du XX siècle dans le domaine des sciences physiques et des mathématiques sont à l'origine de cette évolution, elles marquent le passage de la raison classique (absolutiste) à la raison contemporaine (relativiste et complexifiée). On ne peut s'attendre à ce que le miroir de sorcière reflète une image irréprochable et normative de la raison, mais on ne saurait se satisfaire d'une image strictement négative. Le Fantastique ne se tient pas, contrairement à ce qu'on pourrait croire, à l'écart des vertiges de la science moderne. Il évolue en symbiose avec elle. Je m'attache à montrer, tout au long de ce travail, que la littérature fantastique restitue une image positive mais impure de la raison. Cette dernière dérive des « monstres » que la raison engendre au XX siècle : relativité einsteinienne, mécanique quantique, théorème de Gödel, relativité einsteinienne, logiques non-classiques (entre autres). Dans un récit fantastique, la raison strictement déductive, rigide et totalisante est systématiquement battue en brèche. Mais ce n'est pas là la preuve que la raison a atteint ses limites. La pensée scientifique nous enseigne que ce peut être, au contraire, le signe d'une extension de la raison. Cette réhabilitation de la raison – de son versant « impur » – qui tient compte du contexte scientifique actuel a le mérite de réactualiser le genre fantastique et lui confère une nouvelle unité. Cette réactualisation passe par une modification substantielle du statut du surnaturel : il n’est plus tenu pour un principe désorganisateur mais considéré comme agent de la rationalité. / The purpose of this doctoral dissertation is to analyze the reflection of scientific thinking in the Fantastic literature of the nineteenth and twentieth centuries, and, by the same token, to re-invigorate the theoretical approach to the Fantastic genre. The backbone of my thesis is to study the connection between reason and the Fantastic genre. In summarizing the specialists on this subject, one comes to the following conclusion: the Fantastic genre highlights the insufficiency of reason. It underlines the shortcomings, restrictions and failures of reason in the name of the inexhaustible complexity of reality. The image of reason that the Fantastic genre conveys is quite negative, although connected to a classical concept of rationality, nowadays obsolete. Some key revolutionary concepts of the twentieth century in the fields of physics and mathematics have significantly changed the way we regard reason. This progress marks the passage from classical reason (absolutist) to contemporary reason (relativist and a high degree of complexity). It could not be expected that Fantastic literature reflect a faultless and canonical image of reason, but a strictly negative image is unsatisfactory. The Fantastic genre is not insensitive, contrary to usual belief, to the amazing discoveries of modern science. It evolves in symbiosis with modern science. My goal is to show throughout this work that Fantastic literature gives a positive but troubled image of reason. The latter comes from the “monsters” that were invented by science during the twentieth century: Einstein’s relativity, quantum mechanics, Gödel’s theorem, non- classical logics (among others).In a Fantastic tale, strictly deductive reasoning, unbending and all-knowing is systematically defeated. But this is not proof that reason has reached its limits. Scientific thinking teaches us that it can be, on the contrary, a sign of an extension of reason. This rehabilitation of reason –of its "troubled" side– that takes into account the current scientific context updates the Fantastic genre and gives it a new unity. This updating means a substantial modification of the status of the supernatural: one does not consider it as a disorganizing agent but as an agent of rationality
|
163 |
Etude de systèmes de contraintes pour le raisonnement qualitatif temporel et spatial / Study of constraint systems for qualitative reasoningAlmeida, Dominique D' 03 December 2010 (has links)
La modélisation et la résolution de problèmes sous contraintes constituent un domaine majeur enIA. Par la nature diverse des contraintes, différents formalismes de représentation ont été proposés pour les exprimer de manière simple et compacte tout en garantissant une efficacité des outils de résolutions associés. Les formules propositionnelles, les réseaux de contraintes discrets (RCD) et qualitatives (RCQ) sont des cadres de modélisation répondant à ces critères. Pour les informations temporelles ou spatiales, les RCQ constituent un modèle de choix avec de nombreuses applications comme l’ordonnancement de tâches, la planification temporelle ou spatiale, les systèmes d’informations géographiques. Nos contributions visent à étudier les liens des RCQ vers les RCD et les formules propositionnelles, afin d’adapter les outils issus des divers domaines et de proposer de nouvelles approches. Tout d’abord, nous nous concentrons sur l’aspect structurel des RCQ, en adaptant la méthode de la composition faible dans les différents cadres. Nous exploitons ensuite les propriétés des classes traitables de certains formalismes qualitatifs, afin de définir une transformation vers la logique propositionnelle. En exploitant la transformation vers les RCD, nous proposons une méthode incomplète facilitant la preuve de l’incohérence des RCQ par la relaxation de la propriété de composition faible, puis nous complétons l’approche en exploitant les classes traitables. Enfin, ces études nous conduisent à proposer une nouvelle forme de substituabilité locale, dont les détections statique et dynamique permettent d’obtenir une amélioration algorithmique dans le cadre des RCD. / Modelling and solving constraints problems is a major domain in Artificial Intelligence. By the various natures of the constraints, different formalisms were proposed to express them in a simple andcompact way while guaranteeing the effectiveness of the associated solution tools. Propositional formulae, discrete constraint networks (DCNs), and qualitative constraint networks (QCNs) are the well known frameworks that guaranty these requirements. For temporal or space information, QCNs constitute a model of choice with many real world applications such as scheduling, temporal or spatial planning and geographic information systems. Our contributions aim at studying the links between QCNs, DCNs and propositional formulas, in order to adapt the tools developed in these fields and to propose new approaches. First of all, we focus on the structural aspects of QCNs, by transforming weak composition within the various frameworks. In order to define a transformation towards propositional logic we then exploit the properties of tractable classes of some qualitative formalism. Exploiting the transformation towards DCNs, we propose an incomplete method simplifying the proof of the inconsistency for QCNs by relaxing the weak composition property. Then, we propose a complete approach thanks to tractable classes. Finally, these studies lead us to propose a new form of local substitutability, whose static and dynamic detections significantly improve search algorithms for DCNs.
|
164 |
Méthodes avancées de raisonnement en logique propositionnelle : application aux réseaux métaboliques / Proportional logic advanced reasoning methods : application metabolic networksMorterol, Martin 13 December 2016 (has links)
La thèse s'intéresse à l'application et l'extension des méthodes SAT et SMT pour la biologie des systèmes. Plus particulièrement sont visées les problématiques issues de l'étude des réseaux métaboliques. L'état de l'art dans l'étude des réseaux métaboliques utilise de la programmation linéaire qui est extrêmement efficace pour lister toutes les solutions. Afin de pouvoir concurrencer la programmation linéaire nous nous orientons non pas vers l'énumération de toutes les voies mais vers l'énumération de voies satisfaisant des contraintes spécifiées par l'utilisateur. L'utilisation de SMT et les contraintes supplémentaires nous permettent d'utiliser des optimisations inaccessibles à la programmation linéaire. / The thesis focuses on the application and extension SAT and SMT methods for systems biology. In particular, will be targeted issues from the study of metabolic networks . The state of the art in the study of metabolic networks use linear programming that is extremely effective to list all the solutions. In order to compete with linear programming we do not try to list all pathway but enumerate pathway satisfying constraints specified by the user. The use of SMT and the additional constraints allow us to use inaccessible optimization for linear programming.
|
165 |
Modélisation intégratrice du traitement BigData / Integrative modeling of Big Data processingHashem, Hadi 19 September 2016 (has links)
Dans le monde d’aujourd’hui de multiples acteurs de la technologie numérique produisent des quantités infinies de données. Capteurs, réseaux sociaux ou e-commerce, ils génèrent tous de l’information qui s’incrémente en temps-réel selon les 3 V de Gartner : en Volume, en Vitesse et en Variabilité. Afin d’exploiter efficacement et durablement ces données, il est important de respecter la dynamicité de leur évolution chronologique au moyen de deux approches : le polymorphisme d’une part, au moyen d’un modèle dynamique capable de supporter le changement de type à chaque instant sans failles de traitement ; d’autre part le support de la volatilité par un modèle intelligent prenant en compte des données clé seulement interprétables à un instant « t », au lieu de traiter toute la volumétrie des données actuelle et historique.L’objectif premier de cette étude est de pouvoir établir au moyen de ces approches une vision intégratrice du cycle de vie des données qui s’établit selon 3 étapes, (1) la synthèse des données via la sélection des valeurs-clés des micro-données acquises par les différents opérateurs au niveau de la source, (2) la fusion en faisant le tri des valeurs-clés sélectionnées et les dupliquant suivant un aspect de dé-normalisation afin d’obtenir un traitement plus rapide des données et (3) la transformation en un format particulier de carte de cartes de cartes, via Hadoop dans le processus classique de MapReduce afin d’obtenir un graphe défini dans la couche applicative.Cette réflexion est en outre soutenue par un prototype logiciel mettant en oeuvre les opérateurs de modélisation sus-décrits et aboutissant à une boîte à outils de modélisation comparable à un AGL et, permettant une mise en place assistée d'un ou plusieurs traitements sur BigData / Nowadays, multiple actors of Internet technology are producing very large amounts of data. Sensors, social media or e-commerce, all generate real-time extending information based on the 3 Vs of Gartner: Volume, Velocity and Variety. In order to efficiently exploit this data, it is important to keep track of the dynamic aspect of their chronological evolution by means of two main approaches: the polymorphism, a dynamic model able to support type changes every second with a successful processing and second, the support of data volatility by means of an intelligent model taking in consideration key-data, salient and valuable at a specific moment without processing all volumes of history and up to date data.The primary goal of this study is to establish, based on these approaches, an integrative vision of data life cycle set on 3 steps, (1) data synthesis by selecting key-values of micro-data acquired by different data source operators, (2) data fusion by sorting and duplicating the selected key-values based on a de-normalization aspect in order to get a faster processing of data and (3) the data transformation into a specific format of map of maps of maps, via Hadoop in the standard MapReduce process, in order to define the related graph in applicative layer.In addition, this study is supported by a software prototype using the already described modeling tools, as a toolbox compared to an automatic programming software and allowing to create a customized processing chain of BigData
|
166 |
Contextual integration of heterogeneous data in an open and opportunistic smart environment : application to humanoid robots / Intégration contextuelle de données hétérogènes dans un environnement ambiant ouvert et opportuniste : application aux robots humanoïdesRamoly, Nathan 02 July 2018 (has links)
L'association de robots personnels et d’intelligences ambiantes est une nouvelle voie pour l’aide à domicile. Grâce aux appareils intelligents de l'environnement, les robots pourraient fournir un service de haute qualité. Cependant, des verrous existent pour la perception, la cognition et l’action.En effet, une telle association cause des problèmes de variétés, qualités et conflits, engendrant des données hétérogènes et incertaines. Cela complique la perception du contexte et la cognition, i.e. le raisonnement et la prise de décision. La connaissance du contexte est utilisée par le robot pour effectuer des actions. Cependant, il se peut qu’il échoue, à cause de changements de contexte ou par manque de connaissance. Ce qui annule ou retarde son plan. La littérature aborde ces sujets, mais n’offre aucune solution viable et complète. Face à ces verrous, nous avons proposé des contributions, autour à la fois du raisonnement et de l’apprentissage. Nous avons d’abord conçu un outil d'acquisition de contexte qui gère et modélise l’incertitude. Puis, nous avons proposé une technique de détection de situations anormales à partir de données incertaines. Ensuite, un planificateur dynamique, qui considère les changements de contexte, a été proposé. Enfin, nous avons développé une méthode d'apprentissage par renforcement et expérience pour éviter proactivement les échecs.Toutes nos contributions ont été implémentées et validées via simulation ou à l’aide d’un robot dans une plateforme d’espaces intelligents / Personal robots associated with ambient intelligence are an upcoming solution for domestic care. In fact, helped with devices dispatched in the environment, robots could provide a better care to users. However, such robots are encountering challenges of perception, cognition and action.In fact, such an association brings issues of variety, data quality and conflicts, leading to the heterogeneity and uncertainty of data. These are challenges for both perception, i.e. context acquisition, and cognition, i.e. reasoning and decision making. With the knowledge of the context, the robot can intervene through actions. However, it may encounter task failures due to a lack of knowledge or context changes. This causes the robot to cancel or delay its agenda. While the literature addresses those topics, it fails to provide complete solutions. In this thesis, we proposed contributions, exploring both reasoning and learning approaches, to cover the whole spectrum of problems. First, we designed novel context acquisition tool that supports and models uncertainty of data. Secondly, we proposed a cognition technique that detects anomalous situation over uncertain data and takes a decision in accordance. Then, we proposed a dynamic planner that takes into consideration the last context changes. Finally, we designed an experience-based reinforcement learning approach to proactively avoid failures.All our contributions were implemented and validated through simulations and/or with a small robot in a smart home platform
|
167 |
Le rôle de la dimension corporelle expressive des émotions dans le raisonnement émotionnelGagnon, Marie-Ève January 2021 (has links) (PDF)
No description available.
|
168 |
Comparaison des propriétés métriques des scores obtenus avec un test de concordance de script au regard de trois méthodes de détermination des scoresExantus, Judith 01 May 2020 (has links)
Le test de concordance de script (TCS) est un outil qui vise à mesurer le raisonnement clinique (RC) des apprenants en contexte d’incertitude en comparaison à celui des experts. La nature de cet instrument fait en sorte que le processus de détermination des scores est névralgique et influence ainsi l’interprétation de ces derniers. Le but de cette recherche à caractère exploratoire était d’examiner l’impact de trois méthodes de détermination des scores sur les propriétés métriques des scores obtenus avec un TCS. Nous avons réalisé une analyse secondaire de données recueillies entre 2010 et 2014 auprès de 160 étudiants inscrits dans un programme de médecine familiale à l'Université de Liège en Belgique. Ainsi la théorie classique des tests et le modèle de Rasch ont été mis à contribution. Selon les résultats obtenus, la méthode selon la bonne réponse n’est pas recommandée. En revanche, la méthode des scores combinés très utilisée dans le contexte du TCS n’a pas prouvé, selon nous, sa supériorité sur la méthode avec pénalité de distance. D’autres études s’avèrent nécessaires pour approfondir ces résultats.
|
169 |
Querying big RDF data : semantic heterogeneity and rule-based inconsistency / Interrogation de gros volumes données : hétérogénéité sémantique et incohérence à la base des règlesHuang, Xin 30 November 2016 (has links)
Le Web sémantique est la vision de la prochaine génération de Web proposé par Tim Berners-Lee en 2001. Avec le développement rapide des technologies du Web sémantique, de grandes quantités de données RDF existent déjà sous forme de données ouvertes et liées et ne cessent d'augmenter très rapidement. Les outils traditionnels d'interrogation et de raisonnement sur les données du Web sémantique sont conçus pour fonctionner dans un environnement centralisé. A ce titre, les algorithmes de calcul traditionnels vont inévitablement rencontrer des problèmes de performances et des limitations de mémoire. De gros volumes de données hétérogènes sont collectés à partir de différentes sources de données par différentes organisations. Ces sources de données présentent souvent des divergences et des incertitudes dont la détection et la résolution sont rendues encore plus difficiles dans le big data. Mes travaux de recherche présentent des approches et algorithmes pour une meilleure exploitation de données dans le contexte big data et du web sémantique. Nous avons tout d'abord développé une approche de résolution des identités (Entity Resolution) avec des algorithmes d'inférence et d'un mécanisme de liaison lorsque la même entité est fournie dans plusieurs ressources RDF décrite avec différentes sémantiques et identifiants de ressources URI. Nous avons également développé un moteur de réécriture de requêtes SPARQL basé le modèle MapReduce pour inférer les données implicites décrites intentionnellement par des règles d'inférence lors de l'évaluation de la requête. L'approche de réécriture traitent également de la fermeture transitive et règles cycliques pour la prise en compte de langages de règles plus riches comme RDFS et OWL. Plusieurs optimisations ont été proposées pour améliorer l'efficacité des algorithmes visant à réduire le nombre de jobs MapReduce. La deuxième contribution concerne le traitement d'incohérence dans le big data. Nous étendons l'approche présentée dans la première contribution en tenant compte des incohérences dans les données. Cela comprend : (1) La détection d'incohérence à base de règles évaluées par le moteur de réécriture de requêtes que nous avons développé; (2) L'évaluation de requêtes permettant de calculer des résultats cohérentes selon une des trois sémantiques définies à cet effet. La troisième contribution concerne le raisonnement et l'interrogation sur la grande quantité données RDF incertaines. Nous proposons une approche basée sur MapReduce pour effectuer l'inférence de nouvelles données en présence d'incertitude. Nous proposons un algorithme d'évaluation de requêtes sur de grandes quantités de données RDF probabilistes pour le calcul et l'estimation des probabilités des résultats. / Semantic Web is the vision of next generation of Web proposed by Tim Berners-Lee in 2001. Indeed, with the rapid development of Semantic Web technologies, large-scale RDF data already exist as linked open data, and their number is growing rapidly. Traditional Semantic Web querying and reasoning tools are designed to run in stand-alone environment. Therefor, Processing large-scale bulk data computation using traditional solutions will result in bottlenecks of memory space and computational performance inevitably. Large volumes of heterogeneous data are collected from different data sources by different organizations. In this context, different sources always exist inconsistencies and uncertainties which are difficult to identify and evaluate. To solve these challenges of Semantic Web, the main research contents and innovative approaches are proposed as follows. For these purposes, we firstly developed an inference based semantic entity resolution approach and linking mechanism when the same entity is provided in multiple RDF resources described using different semantics and URIs identifiers. We also developed a MapReduce based rewriting engine for Sparql query over big RDF data to handle the implicit data described intentionally by inference rules during query evaluation. The rewriting approach also deal with the transitive closure and cyclic rules to provide a rich inference language as RDFS and OWL. The second contribution concerns the distributed inconsistency processing. We extend the approach presented in first contribution by taking into account inconsistency in the data. This includes: (1)Rules based inconsistency detection with the help of our query rewriting engine; (2)Consistent query evaluation in three different semantics. The third contribution concerns the reasoning and querying over large-scale uncertain RDF data. We propose an MapReduce based approach to deal with large-scale reasoning with uncertainty. Unlike possible worlds semantic, we propose an algorithm for generating intensional Sparql query plan over probabilistic RDF graph for computing the probabilities of results within the query.
|
170 |
Gestion du raisonnement à base de cas avec l'apprentissage par renforcement pour un jeu contraint dans le tempsRomdhane, Houcine 16 April 2018 (has links)
Dans ces travaux, nous tentons d’améliorer l’aspect comportemental dans les jeux vidéo en utilisant le raisonnement par cas (Case Based Reasoning - CBR), qui simule le comportement humain. Cette technique, provenant du domaine de l’intelligence artificielle, résout de nouveaux problèmes en retrouvant des expériences analogues dans sa base de cas et en les adaptant au nouveau problème considéré. Nous utilisons le CBR pour l’automatisation de décisions prises par des composantes d’un jeu. La construction d’un module CBR nécessite l’accumulation de plusieurs épisodes de jeu pour former la base de cas du module. Cependant, lorsqu’un grand nombre d’épisodes sont emmagasinés dans la base de cas, la réponse en temps du système s’alourdit. Nous sommes alors confrontés au défi d’améliorer le temps de réponse du module CBR tout en gardant un niveau de performance acceptable du système. Dans ce mémoire, nous utilisons le jeu de Tetris pour mener notre étude. Ce jeu présente un intérêt particulier car les décisions à prendre sont contraintes dans le temps. Nous proposons dans ce mémoire de répondre aux questions suivantes : Comment formuler un système CBR pour jouer au jeu Tetris. Quelle est la performance attendue par un système CBR appliqué à ce jeu. Quel est le niveau du jeu qui peut être atteint par l’estimation de la valeur des cas obtenus par apprentissage par renforcement. Comme Tetris est un jeu contraint par le temps, quel est le niveau de dégradation de performances qui peut être perçue par la réduction de la taille de la base de cas. / In this work, we try to improve the behavioral aspects of video games using Case Based Reasoning (CBR), which can reproduce human behavior as reasoning by similarity, as well as remembering and forgetting previous experiences. This technique, coming from the Artificial Intelligence field, solves new problems by retrieving similar past experiences in the case base and adapting solution to solve new problems. We use CBR for the automation of decisions made by the game engine. The construction of a CBR system needs to accumulate many episodes from the gaming environment to create the case base of the CBR engine. However, as the number of episodes being saved in the case base increases, the response time of the CBR system slows down. We are then facing a dilemma: reducing the size of the case base to improve the response of the CBR system while keeping an acceptable level of performance. In this master thesis, we use the game of Tetris to conduct our case studies. This game presents some particular interests, as decisions to be made are limited by time constraints. We propose in this thesis to answer the following questions: How to construct a CBR system to play the game of Tetris. What is the expected performance of the system applied to this game? Wich game level can be reached by estimating case value through reinforcement learning? As time response constraints are inherent to Tetris, which degradation of performance can be expected by removing cases from the case base?
|
Page generated in 0.0785 seconds