• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 55
  • 39
  • 17
  • Tagged with
  • 124
  • 124
  • 104
  • 73
  • 53
  • 51
  • 51
  • 51
  • 47
  • 47
  • 47
  • 41
  • 31
  • 30
  • 29
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Compression in Sequence to Sequence Learning for Natural Language Processing

Prato, Gabriele 12 1900 (has links)
Dans ce travail, nous proposons une méthode presque sans perte d’information pour encoder de longues séquences de texte ainsi que toutes leurs sous-séquences en des représentations riches en information. Nous testons notre méthode sur une tâche d’analyse de sentiments et obtenons de bons résultats avec les vecteurs de sous-phrases et de phrases. Ce travail présente aussi l’utilisation de la distillation de connaissance et de la quantification pour compresser le modèle de Transformer [Vaswani et al., 2017] pour la tâche de traduction. Nous sommes, au mieux de nos connaissances, les premiers à démontrer que le Transformer avec ses poids quantifiés à 8-bits peut obtenir un score BLEU aussi bon qu’avec ses poids de précisions pleines. De plus, en combinant la distillation de connaissance avec la quantification des poids, nous pouvons entraîner de plus petits réseaux Transformer et obtenir un taux de compression jusqu’à 12.59x, en ne perdant que seulement 2.51 BLEU sur la tâche de traduction WMT 2014 Anglais-Français, comparativement au modèle de base. Le chapitre 1 introduit des concepts d’apprentissage machine pour le traitement des langues naturelles, concepts qui sont essentiels à la compréhension des deux papiers présentés dans cette thèse. Chapitre 2 et 3 couvrent respectivement chaque papier, avant de conclure par le chapitre 4. / In this work, we propose a near lossless method for encoding long sequences of texts as well as all of their sub-sequences into feature rich representations. We test our method on sentiment analysis and show good performance across all sub-sentence and sentence embeddings. This work also demonstrates the use of knowledge distillation and quantization to compress the original Transformer model [Vaswani et al., 2017] for the translation task. We are, to the best of our knowledge, the first to show that 8-bit quantization of the weights of the Transformer can achieve the same BLEU score as the full-precision model. Furthermore, when we combine knowledge distillation with weight quantization, we can train smaller Transformer networks and achieve up to 12.59x compression while losing only 2.51 BLEU off the baseline on the WMT 2014 English-to-French translation task. Chapter 1 introduces machine learning concepts for natural language processing which are essential to understanding both papers presented in this thesis. Chapter 2 and 3 cover each paper respectively, before finally concluding with chapter 4.
102

Investigation of neural activity in Schizophrenia during resting-state MEG : using non-linear dynamics and machine-learning to shed light on information disruption in the brain

Alamian, Golnoush 08 1900 (has links)
Environ 25% de la population mondiale est atteinte de troubles psychiatriques qui sont typiquement associés à des problèmes comportementaux, fonctionnels et/ou cognitifs et dont les corrélats neurophysiologiques sont encore très mal compris. Non seulement ces dysfonctionnements réduisent la qualité de vie des individus touchés, mais ils peuvent aussi devenir un fardeau pour les proches et peser lourd dans l’économie d’une société. Cibler les mécanismes responsables du fonctionnement atypique du cerveau en identifiant des biomarqueurs plus robustes permettrait le développement de traitements plus efficaces. Ainsi, le premier objectif de cette thèse est de contribuer à une meilleure caractérisation des changements dynamiques cérébraux impliqués dans les troubles mentaux, plus précisément dans la schizophrénie et les troubles d’humeur. Pour ce faire, les premiers chapitres de cette thèse présentent, en intégral, deux revues de littératures systématiques que nous avons menées sur les altérations de connectivité cérébrale, au repos, chez les patients schizophrènes, dépressifs et bipolaires. Ces revues révèlent que, malgré des avancées scientifiques considérables dans l’étude de l’altération de la connectivité cérébrale fonctionnelle, la dimension temporelle des mécanismes cérébraux à l’origine de l’atteinte de l’intégration de l’information dans ces maladies, particulièrement de la schizophrénie, est encore mal comprise. Par conséquent, le deuxième objectif de cette thèse est de caractériser les changements cérébraux associés à la schizophrénie dans le domaine temporel. Nous présentons deux études dans lesquelles nous testons l’hypothèse que la « disconnectivité temporelle » serait un biomarqueur important en schizophrénie. Ces études explorent les déficits d’intégration temporelle en schizophrénie, en quantifiant les changements de la dynamique neuronale dite invariante d’échelle à partir des données magnétoencéphalographiques (MEG) enregistrés au repos chez des patients et des sujets contrôles. En particulier, nous utilisons (1) la LRTCs (long-range temporal correlation, ou corrélation temporelle à longue-distance) calculée à partir des oscillations neuronales et (2) des analyses multifractales pour caractériser des modifications de l’activité cérébrale arythmique. Par ailleurs, nous développons des modèles de classification (en apprentissage-machine supervisé) pour mieux cerner les attributs corticaux et sous-corticaux permettant une distinction robuste entre les patients et les sujets sains. Vu que ces études se basent sur des données MEG spontanées enregistrées au repos soit avec les yeux ouvert, ou les yeux fermées, nous nous sommes par la suite intéressés à la possibilité de trouver un marqueur qui combinerait ces enregistrements. La troisième étude originale explore donc l’utilité des modulations de l’amplitude spectrale entre yeux ouverts et fermées comme prédicteur de schizophrénie. Les résultats de ces études démontrent des changements cérébraux importants chez les patients schizophrènes au niveau de la dynamique d’invariance d’échelle. Elles suggèrent une dégradation du traitement temporel de l’information chez les patients, qui pourrait être liée à leurs symptômes cognitifs et comportementaux. L’approche multimodale de cette thèse, combinant la magétoencéphalographie, analyses non-linéaires et apprentissage machine, permet de mieux caractériser l’organisation spatio-temporelle du signal cérébrale au repos chez les patients atteints de schizophrénie et chez des individus sains. Les résultats fournissent de nouvelles preuves supportant l’hypothèse d’une « disconnectivité temporelle » en schizophrénie, et étendent les recherches antérieures, en explorant la contribution des structures cérébrales profondes et en employant des mesures non-linéaires avancées encore sous-exploitées dans ce domaine. L’ensemble des résultats de cette thèse apporte une contribution significative à la quête de nouveaux biomarqueurs de la schizophrénie et démontre l’importance d’élucider les altérations des propriétés temporelles de l’activité cérébrales intrinsèque en psychiatrie. Les études présentées offrent également un cadre méthodologique pouvant être étendu à d’autres psychopathologie, telles que la dépression. / Psychiatric disorders affect nearly a quarter of the world’s population. These typically bring about debilitating behavioural, functional and/or cognitive problems, for which the underlying neural mechanisms are poorly understood. These symptoms can significantly reduce the quality of life of affected individuals, impact those close to them, and bring on an economic burden on society. Hence, targeting the baseline neurophysiology associated with psychopathologies, by identifying more robust biomarkers, would improve the development of effective treatments. The first goal of this thesis is thus to contribute to a better characterization of neural dynamic alterations in mental health illnesses, specifically in schizophrenia and mood disorders. Accordingly, the first chapter of this thesis presents two systematic literature reviews, which investigate the resting-state changes in brain connectivity in schizophrenia, depression and bipolar disorder patients. Great strides have been made in neuroimaging research in identifying alterations in functional connectivity. However, these two reviews reveal a gap in the knowledge about the temporal basis of the neural mechanisms involved in the disruption of information integration in these pathologies, particularly in schizophrenia. Therefore, the second goal of this thesis is to characterize the baseline temporal neural alterations of schizophrenia. We present two studies for which we hypothesize that the resting temporal dysconnectivity could serve as a key biomarker in schizophrenia. These studies explore temporal integration deficits in schizophrenia by quantifying neural alterations of scale-free dynamics using resting-state magnetoencephalography (MEG) data. Specifically, we use (1) long-range temporal correlation (LRTC) analysis on oscillatory activity and (2) multifractal analysis on arrhythmic brain activity. In addition, we develop classification models (based on supervised machine-learning) to detect the cortical and sub-cortical features that allow for a robust division of patients and healthy controls. Given that these studies are based on MEG spontaneous brain activity, recorded at rest with either eyes-open or eyes-closed, we then explored the possibility of finding a distinctive feature that would combine both types of resting-state recordings. Thus, the third study investigates whether alterations in spectral amplitude between eyes-open and eyes-closed conditions can be used as a possible marker for schizophrenia. Overall, the three studies show changes in the scale-free dynamics of schizophrenia patients at rest that suggest a deterioration of the temporal processing of information in patients, which might relate to their cognitive and behavioural symptoms. The multimodal approach of this thesis, combining MEG, non-linear analyses and machine-learning, improves the characterization of the resting spatiotemporal neural organization of schizophrenia patients and healthy controls. Our findings provide new evidence for the temporal dysconnectivity hypothesis in schizophrenia. The results extend on previous studies by characterizing scale-free properties of deep brain structures and applying advanced non-linear metrics that are underused in the field of psychiatry. The results of this thesis contribute significantly to the identification of novel biomarkers in schizophrenia and show the importance of clarifying the temporal properties of altered intrinsic neural dynamics. Moreover, the presented studies offer a methodological framework that can be extended to other psychopathologies, such as depression.
103

Système intelligent pour le suivi et l’optimisation de l’état cognitif

Ben Abdessalem, Hamdi 04 1900 (has links)
Les émotions des êtres humains changent régulièrement et parfois de manière brusque entrainant un changement de l’état mental c’est-à-dire de l’aptitude cérébrale à fonctionner normalement. Il en résulte une capacité cognitive (ou état cognitif) de l’individu à pouvoir raisonner, accéder à la mémoire, ou effectuer des déductions, variable selon l’état mental. Ceci affecte, en conséquence, les performances des utilisateurs qui varient en fonction de leurs état cognitifs. Cette thèse vise à optimiser l’état cognitif d’un utilisateur lors de ses interactions avec un environnement virtuel. Comme cet état dépend des émotions, l’optimisation de l’état cognitif peut être réalisée à travers l’optimisation des émotions et en particulier la réduction des émotions négatives. Une première partie concerne les moyens de mesurer en temps réel (par un Module de mesures) l’état émotionnel et mental d’un utilisateur lors de ses interactions avec un environnement virtuel. Nous avons réalisé pour cela quatre études expérimentales avec quatre environnements différents. Nous avons montré que ces mesures peuvent être réalisées en utilisant différents capteurs physiologiques. Nous avons aussi montré qu’il est possible de prédire la tendance de l’excitation (un état mental) à partir d’un traceur de regard. Dans une deuxième partie, nous présentons l’Agent Neural qui modifie les environnements virtuels afin de provoquer une modification de l’état émotionnel d’un utilisateur pour améliorer son état cognitif. Nous avons réalisé quatre études expérimentales avec quatre environnements virtuels, où l’Agent Neural intervient dans ces environnements afin de changer l’état émotionnel de l’utilisateur. Nous avons montré que l’agent est capable d’intervenir dans plusieurs types d’environnements et de modifier les émotions de l’utilisateur. Dans une troisième partie, présentons l’Agent Limbique, qui personnalise et améliore les adaptations faites par l’Agent Neural à travers l’observation et l’apprentissage des impacts des changements des environnements virtuels et des réactions émotionnelles des utilisateurs. Nous avons montré que cet agent est capable d’analyser les interventions de l’Agent Neural et de les modifier. Nous avons montré aussi que l’Agent Limbique est capable de générer une nouvelle règle d’intervention et de prédire son impact sur l’utilisateur. La combinaison du Module de mesures, de l’Agent Neural, et de l’Agent Limbique, nous a permis de créer un système de contrôle cognitif intelligent que nous avons appelé Système Limbique Digital. / The human’s emotions change regularly and sometimes suddenly leading to changes in their mental state which is the brain’s ability to function normally. This mental state’s changes affect the users’ cognitive ability (or cognitive state) to reason, access memory, or make inferences, which varies depending on the mental state. Consequently, this affects the users’ performances which varies according to their cognitive states. This thesis aims to optimize the users’ cognitive state during their interactions with a virtual environment. Since this state depends on emotions, optimization of cognitive state can be achieved through the optimization of emotions and in particular the reduction of negative emotions. In a first part, we present the means of measuring in real time (using a Measuring module) the users’ emotional and mental state during their interactions with a virtual environment. We performed four experimental studies with four different environments. We have shown that these measurements can be performed using different physiological sensors. We have also shown that it is possible to predict the tendency of excitement (a mental state) using an eye tracker. In a second part, we present the Neural Agent which modifies virtual environments to provoke a modification on the users’ emotional state in order to improve their cognitive state. We performed four experimental studies with four virtual environments, in which the Neural Agent intervenes in these environments to change the users’ emotional state. We have shown that the agent is able to intervene in several types of environments and able to modify the users’ emotions. In a third part, we present the Limbic Agent, which personalizes and improves the adaptations performed by the Neural Agent through the observation and the learning from the virtual environments changes’ impacts and the users’ emotional reactions. We have shown that this agent is able to analyze the Neural Agent’s interventions and able to modify them. We have also shown that the Limbic Agent is able to generate a new intervention rule and predict its impact on the user. The combination of the Measuring Module, the Neural Agent, and the Limbic Agent, allowed us to create an intelligent cognitive control system that we called the Digital Limbic System.
104

L'intelligence artificielle : une certaine intelligence du social

Fayon, Didier 09 1900 (has links)
Sociologie des techniques / Du point de vue d’une sociologie de la connaissance, la recherche contemporaine en intelligence artificielle tire son originalité de l’intérêt porté à la modélisation de la connaissance ordinaire, ce savoir engagé dans la vie de tous les jours (ex. aller l’épicerie, prendre son petit déjeuner). Les entreprises Facebook ou Google, le fameux GAFAM ainsi que les services de musique et de vidéos en ligne capturent et modélisent les faits et gestes du quidam afin de remettre les résultats de leurs calculs en jeu dans cette même vie courante. La recherche en IA porte également sur la mise en forme de savoirs savants et professionnels tout comme durant les années 1960 et 1970, mais cette thèse ne s’y intéressera pas. Dans le cadre d’une sociologie des sciences et des techniques, je me questionne sur ce que nous, en tant que civilisation occidentale, faisons du développement technologique, du monde que nous construisons à l’aide des diverses techniques. Ma préoccupation ne porte pas sur les choix des objets privilégiés par la recherche des laboratoires publics et privés, mais sur les usages, les débouchés selon la question très générale : en quoi telle technique modifie-t-elle ou non notre façon de vivre ? Or, cette question relève d’un exercice de prospective dans la mesure où bien souvent nous ne possédons pas assez de recul sur ces techniques. Elle demeure malgré tout une préoccupation d’arrière-plan de mes questions de recherche. En effet, ces modèles d’apprentissage machine, trouveraient-ils leur place au sein d’une civilisation qui n’accorderait pas autant d’importance à l’efficacité, à la productivité, à la rentabilité, à la science ou encore au travail ? Aussi, viennent-ils entériner l’ordre établi ou bien offrent-ils de nouvelles possibilités d’existence ? Comprendre minimalement l’artefact d’un point de vue technique et saisir du point de vue de la sociologie la façon dont les chercheurs pensent leurs objets nous éclaire sur les catégories de pensées principales qui orientent ces usages et le cas échéant sur les éventuels effets sociétaux. En l’occurrence, l’idée de modéliser de nombreuses activités de la vie quotidienne repose sur une représentation à priori de celle-ci de la part de chercheurs localisés socialement par leur profession et plus généralement leurs relations sociales diverses. Quelle est cette représentation et comment est-elle opérationnalisée dans les modèles ? Posée autrement, de quels rapports au monde témoignent ingénieurs et informaticiens par l’intermédiaire de leurs connaissances professionnelles, savantes et ordinaires ? Ainsi, dans cette thèse, mon travail se ramène à informer de la dimension sociale propre à la technique étudiée. À partir d’entretiens auprès de chercheurs en IA, la question de recherche est la suivante : quels sont les savoirs et raisonnements chez les chercheurs au fondement de l’élaboration des algorithmes relevant de l’intelligence artificielle contemporaine et qui construisent une représentation opératoire particulière de la vie sociale ? Exprimée en terme sociologique, cette question devient : en quoi les modèles d'apprentissage sont-ils un nouveau « modèle concret de connaissance » pour les usagers et informaticiens selon le concept développé par le sociologue Gilles Houles ? Les modèles dits d’apprentissage sous-tendent une conception relationnelle de la constitution de la connaissance humaine et d’un rapport à la réalité médié par l’action comme moyen d’actualisation de cette connaissance. Résumé simplement, le concept sociologique de « modèle concret de connaissance » objective les deux modalités d’existence de la vie humaine que nous retrouvons empiriquement sous deux concepts informatiques : symbolique (leur modèle mathématique) et l’action ou « l’agent informatique » ou « celui qui agit », que ce concept soit mobilisé ou non par les chercheurs. En somme, ces modèles en relation les uns avec les autres et matérialisés dans les objets dits connectés ou « smart » (ex. téléphones, électroménagers) forment un schéma opératoire organisateur de la vie sociale. Ce côté opératoire repose sur la position de « tiers médiateur » ou de « mémoire sociale technicisée » dans les relations humains-humains via machines. Je m'appuierai sur le concept de mémoire sociale et de morphologie sociale développée par le sociologue Maurice Halbwachs. Autrement dit, ce réseau d’objets connectés et d’êtres humains se ramène à l’instauration d’un cadre cognitif collectif particulier, issu des représentations sociales de groupes professionnels précis, mais mises en jeu dans la vie courante de tous, soit une institutionnalisation en cours. En effet, la diffusion et l’adoption des modèles découlent d’un processus de reconnaissance publique de savoirs sous-jacents et déjà institutionnalisés, pour l'essentiel, les mathématiques et l’ingénierie, le savoir implicite des « sciences de la gestion » et un savoir dit « scientifique » par les chercheurs. Plus précisément, le processus en cours consiste en l’institution d’êtres humains et de machines apprenantes en liens permanents via les objets connectés (« Internet of Things »). Au final, elle consiste en une mise en réseau des « régularités sociales » obtenues par classifications et régressions effectuées par les détenteurs des données. Je parlerai d'une « morphologie sociotechnique » ou d’une « configuration sociotechnique ». À la figure du robot polyvalent anthropomorphique censé condenser toute la mise en pratique du savoir sur l’IA, se substitue celle de relations sociales informatisées comme lieux du maintien des liens entre êtres humains par un concentré de savoirs et idées hétérogènes tels qu'un être humain ayant besoin d'aide ou la nécessité de la créativité par exemple. À l’usage, s’établit un type de lien social entre êtres humains via les machines pris entre la réduction propre à tout modèle de l’objet sur lequel il porte, la flexibilité qu’offre la possibilité d’ajustement (le côté « learning ») et le sens donné à l’action par l’utilisateur lambda. L’idéologie comme « mode de connaissance » du réseau sociotechnique est partie prenante de cette institutionnalisation en cours. Elle offre un cadre cognitif qui remet en cause la diversité produite par la division habituelle du travail sémantique au sein des ensembles sociaux en fournissant un modèle de légitimité, soit le discours du « partage ». L’accent mis par cette thèse sur les « sciences de la gestion » et la notion de réseau l’inscrit dans le prolongement des études des trente dernières années sur cette « société informationnelle » de Manuel Castells, une « nouvelle représentation générale des sociétés » en réseau en suivant Luc Boltanski ou encore « l’esprit gestionnaire » qui s’empara des fonctionnaires d’État selon le sociologue Albert Ogien. / From the point of view of a sociology of knowledge, contemporary research in Artificial Intelligence (AI) draws its originality by its interest in the modeling of ordinary knowledge, that knowledge engaged in everyday life. The companies Facebook or Google, the so-called GAFAM, as well as online music and video services, capture and model the facts and gestures of the average person in order to put the results of their calculations back into play in its very everyday life. The research in AI also deals with academic and professional knowledge as it did in the 1960s and 1970s, but this thesis will not focus on it. Within the framework of a sociology of science and technology, I question what We, as the Western civilization, do with technological development, about the world we build with the help of various techniques. My concern is not with the choice of research objects privileged by public and private laboratories, but with the uses, the outlets according to the very general question: In what way does such a technique modify or not our way of living? Now, this question is an exercise in foresight insofar as we often do not have enough hindsight on these techniques. Nevertheless, it remains a background concern of my research. Indeed, would these machine learning models find their place in a civilization that would not give as much importance to efficiency, productivity, profitability, science or work? Also, do they endorse the established social organization, or do they offer new possibilities of existence? Understanding the artifact minimally from a technical perspective and grasping from a sociological point of view the way in which researchers think about their objects sheds light on the main categories of thought that guide these uses and, if applicable, on the possible societal effects. In this case, the idea of modeling many activities of daily life is based on an a priori representation of it by researchers who are socially situated by their profession. What is this representation and how is it operationalized in the models? Put differently, what relationships to the world do engineers and computer scientists have through their professional, academic and ordinary knowledge? Thus, in this thesis, my work comes down to informing the social dimension specific to the studied technique. Based on interviews with AI researchers, the question is as follows: What is the knowledge and reasoning of the researchers at the core of the algorithms of contemporary artificial intelligence and which build a specific operational representation of social life? Expressed in sociological terms, this question becomes: In what way are learning models a new "concrete model of knowledge" for users et researchers according to the concept developed by the sociologist Gilles Houles? The so-called learning models underlie a relational constitution of human knowledge and of a relation to reality mediated by actions as a means of actualization of this knowledge. Summarized simply, the sociological concept of "concrete model of knowledge" objectifies the two modalities of existence of the human life that we find empirically under two computing concepts: symbolic (their mathematical model) and the “action” as "the computing agent" or "the one who acts", whether this concept is used or not by the researchers. In sum, these models in relation to each other and materialized in the notorious connected or "smart" objects (e.g. telephones, household appliances) turn social life into a sociotechnical network. Its operational side relies on the position of "third-party intermediary" or "technical social memory" in human-human relations via machines. I will draw upon the concept of "social memory" and "social morphology" developed by the sociologist Maurice Halbwachs. In other words, this network of connected objects and human beings comes down to the establishment of a particular collective cognitive framework, stemming from the social representations of specific professional groups, but put into play in the everyday life of all, that is to say an institutionalization in progress. Indeed, the diffusion and adoption of the models stem from a process of public recognition of underlying and already institutionalized knowledge, essentially mathematics and engineering, the implicit knowledge of the "management sciences" and a knowledge called "scientific" by researchers. More precisely, the process underway consists in the institution of human beings and learning machines in permanent links via connected objects ("Internet of Things"). In the end, it consists in the networking of "social regularities" obtained by classifications and regressions carried out by the data's owners. I will speak of a "sociotechnical morphology" or a "sociotechnical configuration". The figure of the anthropomorphic multipurpose robot, which is supposed to condense all the practical application of knowledge on AI, is replaced by that of computerized social relations as places where links between human beings are maintained by a concentration of heterogeneous knowledge and ideas, such as a human being in need of help or the need for creativity, for example. In use, a type of social link between human beings via the machines is established, caught between the reduction proper to any modelling of the object on which it concerns, the flexibility offered by the possibility of adjustment (the "learning" side) and the meaning given to the action by the lambda user. Ideology as a "mode of knowledge" of the socio-technical network is part of this ongoing institutionalization. It offers a cognitive framework that challenges the diversity produced by the usual division of semantic labor within social groups by providing a model of legitimacy, namely the discourse of "sharing". The emphasis placed by this thesis on the "management sciences" and the notion of network places it in the continuity of the studies of the last thirty years on this "informational society" of Manuel Castells, a "new general representation of societies" into a network according to Luc Boltanski, or the "managerial spirit" which took hold of the State civil servants according to the sociologist Albert Ogien
105

Alzheimer prediction from connected speech extracts : assessment of generalisation to new data

Chafouleas, Geneviève 09 1900 (has links)
co-direction : Simona Brambati / Plusieurs avancées utilisant le discours obtenu de la tâche de description d’image ont été réalisées dans la détection de la maladie d’Alzheimer (AD). L’utilisation de caractéristiques linguistiques et acoustiques sélectionnées manuellement ainsi que l’utilisation de méthodologies d’apprentissage profond ont montré des résultats très prometteurs dans la classification des patients avec AD. Dans ce mémoire, nous comparons les deux méthodologies sur la scène Cookie Theft du Boston Aphasia Examination en entrainant des modèles avec des caractéristiques sélectionnées à partir des extraits textuels et audio ainsi que sur un modèle d’apprentissage profond BERT. Nos modèles sont entrainés sur l’ensemble de données ADReSS challenge plus récent et évaluées sur l’ensemble de données CCNA et vice versa pour mesurer la généralisation des modèles sur des exemples jamais vus dans des ensembles de données différents. Une évaluation détaillée de l’interprétabilité des modèles est effectuée pour déterminer si les modèles ont bien appris les représentations reliées à la maladie. Nous observons que les modèles ne performent pas bien lorsqu’ils sont évalués sur différents ensembles de données provenant du même domaine. Les représentations apprises des modèles entrainés sur les deux ensembles de données sont très différentes, ce qui pourrait expliquer le bas niveau de performance durant l’étape d’évaluation. Même si nous démontrons l’importance des caractéristiques linguistiques sur la classification des AD vs contrôle, nous observons que le meilleur modèle est BERT avec un niveau d’exactitude de 62.6% sur les données ADReSS challenge et 66.7% sur les données CCNA. / Many advances have been made in the early diagnosis of Alzheimer’s Disease (AD) using connected speech elicited from a picture description task. The use of hand built linguistic and acoustic features as well as Deep Learning approaches have shown promising results in the classification of AD patients. In this research, we compare both approaches on the Cookie Theft scene from the Boston Aphasia Examination with models trained with features derived from the text and audio extracts as well as a Deep Learning approach using BERT. We train our models on the newer ADReSS challenge dataset and evaluate on the CCNA dataset and vice versa in order to asses the generalisation of the trained model on unseen examples from a different dataset. A thorough evaluation of the interpretability of the models is performed to see how well each of the models learn the representations related to the disease. It is observed that the models do not perform well when evaluated on a different dataset from the same domain. The selected and learned representations from the models trained on either dataset are very different and may explain the low performance in the evaluation step. While we demonstrate the importance of linguistic features in the classification of AD vs non-AD, we find the best overall model is BERT which achieves a test accuracy of 62.6% on the ADRess challenge dataset and 66.7% on the CCNA dataset.
106

Estimation de pose 2D par réseau convolutif

Huppé, Samuel 04 1900 (has links)
Magic: The Gathering} est un jeu de cartes à collectionner stochastique à information imparfaite inventé par Richard Garfield en 1993. Le but de ce projet est de proposer un pipeline d'apprentissage machine permettant d'accomplir la détection et la localisation des cartes du jeu \textit{Magic} au sein d'une image typique des tournois de ce jeu. Il s'agit d'un problème de pose d'objets 2D à quatre degrés de liberté soit, la position sur deux axes, la rotation et l'échelle, dans un contexte où les cartes peuvent être superposées. À travers ce projet, nous avons développé une approche par données synthétiques à deux réseaux capable, collectivement d'identifier, et de régresser ces paramètres avec une précision significative. Dans le cadre de ce projet, nous avons développé un algorithme d'apprentissage profond par données synthétiques capable de positionner une carte avec une précision d'un demi pixel et d'une rotation de moins d'un degré. Finalement, nous avons montré que notre jeu de données synthétique est suffisamment réaliste pour permettre à nos réseaux de généraliser aux cas d'images réelles. / Magic: The Gathering} is an imperfect information, stochastic, collectible card game invented by Richard Garfield in 1993. The goal of this project is to propose a machine learning pipeline capable of detecting and localising \textit{Magic} cards within an image. This is a 2D pose problem with 4 degrees of freedom, namely translation in $x$ and $y$, rotation, and scale, in a context where cards can be superimposed on one another. We tackle this problem by relying on deep learning using a combination of two separate neural networks. Our final pipeline has the ability to tackle real-world images and gives, with a very good degree of precision, the poses of cards within an image. Through the course of this project, we have developped a method of realistic synthetic data generation to train both our models to tackle real world images. The results show that our pose subnetwork is able to predict position within half a pixel, rotation within one degree and scale within 2 percent.
107

Élaboration d’une signature cérébrale de l’expression faciale de la douleur via l’utilisation d’approches d’apprentissage machine

Picard, Marie-Eve 12 1900 (has links)
L’expression faciale est un vecteur de communication important dans l’expérience de douleur. Cependant, les corrélats neuronaux associés à cette manifestation de la douleur demeurent peu investigués. Le but de ce mémoire était de développer un modèle neurobiologique permettant de prédire l’expression faciale évoquée par des stimuli douloureux afin d’approfondir nos connaissances sur les mécanismes cérébraux de la douleur et de la communication non verbale. La signature cérébrale de l’expression faciale de la douleur a été élaborée sur un jeu de données d’IRMf acquis chez des adultes en santé en utilisant des algorithmes d’apprentissage machine pour prédire des scores d’expression faciale évoquée par des stimulations douloureuses phasiques (c.-à-d. de courtes stimulations) à l’échelle de la population. Les résultats suggèrent qu’il est possible de prédire ces réponses faciales à partir d’un patron d’activation multivoxels. Cette signature cérébrale se distingue, du moins partiellement, de signatures cérébrales prédictives de l’intensité et du caractère déplaisant de la douleur rapportée et de la valeur future de la douleur. Bien que d’autres études soient nécessaires pour examiner la spécificité et la généralisabilité de la signature cérébrale de l’expression faciale de la douleur, ce mémoire souligne l’existence d’une représentation cérébrale spatialement distribuée prédictive des réponses faciales en lien avec la douleur, et suggère l’importance de cette mesure comportementale dans l’expérience de la douleur comme étant complémentaire aux mesures autorapportées de l’intensité perçue. / Facial expression is an important communication vector in the experience of pain. However, the neural correlates associated with this manifestation of pain remain relatively unexplored. The goal of this thesis was to develop a neurobiological model to predict facial expression evoked by painful stimuli in order to expand our knowledge of the brain mechanisms of pain and non-verbal communication. The brain signature of facial expressions of pain was developed on a dataset including healthy adults using machine learning algorithms to predict facial expression scores evoked by phasic painful stimuli (i.e., short stimulation) at the population level. The results suggest that it is possible to predict the facial expression of pain from a multivoxel activation pattern. This brain signature of facial pain expression is at least partially distinct from other brain signatures predictive of reported pain intensity and unpleasantness, and future pain value. Although further studies are needed to examine the specificity and generalizability of the brain signature of facial expression of pain, this master thesis highlights the existence of a spatially distributed brain representation predictive of pain-related facial responses, and suggests the importance of this behavioural measure in the experience of pain as complementary to self-reported measures of pain intensity.
108

Investigating intra and inter-subject performance with deep learning for gait on irregular surfaces

Lam, Guillaume 04 1900 (has links)
La médecine personnalisée promet des soins adaptés à chaque patient. Cependant, l’ap- prentissage automatique appliqué à cette fin nécessite beaucoup d’améliorations. L’évalua- tion des modèles est une étape cruciale qui nécessite du travail pour amener à un niveau acceptable pour son utilisation avec des participants. Actuellement, les performances sur les ensembles de données biomédicales sont évaluées à l’aide d’un découpage intra-sujet ou inter-sujet. Le premier se concentre sur l’évaluation des participants présents à la fois dans les ensembles d’entraînement et de test. Ce dernier sépare les participants pour chaque ensemble. Ces termes sont respectivement synonymes de fractionnement aléatoire et par sujet. Deux méthodes principales se présentent comme des solutions pour obtenir des performances de franctionnement aléatoires lors d’entraînement de méthodes par sujet, calibration et sans ca- libration. Alors que la calibration se concentre sur l’entraînement d’un petit sous-ensemble de participant non vues, les méthodes sans calibration visent à modifier l’architecture du modèle ou les traitements préliminaire pour contourner la nécessité du sous-ensemble. Ce mémoire étudiera la calibration non paramétrique pour ses propriétés d’indépendance de la modalité. L’article présenté détaillera cette enquête pour combler l’écart de performance sur un ensemble de données d’essais de marche sur des surfaces irrégulières. Nous détermi- nons que quelques cycles (1-2) de marche sont suffisants pour calibrer les modèles pour des performances adéquates (F1 : +90%). Avec accès à des essais de cycle de marche supplémen- taires (+10), le modèle a atteint à peu près les mêmes performances qu’un modèle formé à l’aide d’une approche de fractionnement aléatoire (F1 : 95-100%). Suivant les objectifs de la médecine personnalisée, des voies de recherche supplémentaires sont décrites, telles qu’une méthode alternative de distribution de modèles qui s’adapte aux étapes de recherche tout en réduisant les coûts de calcul pour les développeurs de modèles. Nous constatons que l’étalonnage est une méthode valable pour surmonter l’écart de performance. Les ré- sultats correspondent aux découvertes précédentes utilisant l’étalonnage pour obtenir des performances robustes. / Personalized medicine promises care tailored to each patient; however, machine learning applied to this end needs much improvement. Evaluation of models is a crucial step which necessitates attention when utilized with participants. Currently, performance on biomedical datasets is evaluated using either intra-subject or inter-subject splitting. The former focuses on the evaluation of participants present in both training and testing sets. The latter separates participants for each set. These terms are synonymous with random-wise and subject-wise splitting, respectively. Two main methods present themselves as solutions to achieving random-wise performance while training on a subject-wise dataset split, calibration and calibration-free methods. While calibration focuses on training a small subset of unseen data trials, calibration-free methods aim to alter model architecture or pre-processing steps to bypass the necessity of training data points. This thesis investigates non-parametric calibration for its modality-agnostic properties. The article presented details this investigation at bridging the performance gap on a dataset of gait trials on irregular surfaces. We determine few (1-2) gait cycles are sufficient to calibrate models for adequate performance (F1:+90%). With access to additional gait cycle trials, the model achieved nearly the same performance as a model trained using a random-split approach (F1:95-100%). Following the goals of personalized medicine, additional research paths are outlined, such as an alternative model distribution method which fits with research steps while reducing computational costs for model developers. We find that calibration is a valid method to overcome the performance gap. The presented results correspond with previous findings by using calibration to achieve robust performance.
109

Detection, recuperation and cross-subject classification of mental fatigue

Hajj Assaf, Alyssa 04 1900 (has links)
La fatigue mentale est un état complexe qui résulte d'une activité cognitive prolongée. Les symptômes de la fatigue mentale inclus des changements d'humeur, de motivation et une détérioration temporaire de diverses fonctions cognitives. Plusieurs recherches approfondies ont été menées pour développer des méthodes de reconnaissance des signes physiologiques et psychophysiologiques de la fatigue mentale. Les signes psychophysiologiques concernent principalement signaux d'activité cérébrale et leur relation avec la psychologie et la cognition. Celles-ci ont permise le développement de nombreux modèles basés sur l'IA pour classer différents niveaux de fatigue, en utilisant des données extraites d'un appareil eye-tracking, d'un électroencéphalogramme (EEG) pour mesurer l’activité cérébrale ou d'un électrocardiogramme (ECG) pour mesurer l’activité cérébrale. Dans cette mémoire, nous présentons le protocole expérimental et développé par mes directeurs de recherche et moi-même, qui vise à la fois à générer et mesurer la fatigue mentale, et à proposer des stratégies efficaces de récupération via des séances de réalité virtuelle couplées à des dispositifs EEG et eye tracking. Réussir à générer de la fatigue mentale est nécessaire pour générer un ensemble de données suivant l’évolution de la fatigue et de la récupération au cours de l’expérience, et sera également utilisé pour classer différents niveaux de fatigue à l’aide de l’apprentissage automatique. Cette mémoire fournit d'abord un état de l'art complet des facteurs prédictifs de la fatigue mentale, des méthodes de mesure et des stratégies de récupération. Ensuite, l'article présente un protocole expérimental résultant de l'état de l'art pour (1) générer et mesurer la fatigue mentale et (2) évaluer l'efficacité de la thérapie virtuelle pour la récupération de la fatigue, (3) entrainer un algorithme d'apprentissage automatique sur les données EEG pour classer 3 niveaux de fatigue différents en utilisant un environnement simulé de réalité virtuelle (VR). La thérapie virtuelle est une technique favorisant la relaxation dans un environnement simulé virtuel et interactif qui vise à réduire le stress. Dans notre travail, nous avons réussi à générer de la fatigue mentale en accomplissant des tâches cognitives dans un environnement virtuel. Les participants ont montré une diminution significative du diamètre de la pupille et du score thêta/alpha au cours des différentes tâches cognitives. Le score alpha/thêta est un indice EEG qui suit les fluctuations de la charge cognitiveet de la fatigue mentale. Divers algorithmes d'apprentissage automatique ont été formés et testés sur des segments de données EEG afin de sélectionner le modèle qui s'ajuste le mieux à ces données en ce qui concerne la métrique d'évaluation "précision équilibrée" et "f1". Parmi les 8 différents classificateurs, le SVM RBF a montré les meilleures performances avec une précision équilibrée de 95 % et une valeur de mesure f de 0,82. La précision équilibrée fournit une mesure précise de la performance dans le cas de jeu de données déséquilibrées, en tenant compte de la sensibilité et de la spécificité, et le f-score est une mesure d'évaluation qui combine les scores de précision et de rappel. Finalement, nos résultats montrent que le temps alloué à la thérapie virtuelle n'a pas amélioré le diamètre pupillaire en période post-relaxation. D'autres recherches sur l'impact de la thérapie devraient consacrer un temps plus proche du temps de récupération standard de 60 min. / Mental fatigue is a complex state that results from prolonged cognitive activity. Symptoms of mental fatigue can include change in mood, motivation, and temporary deterioration of various cognitive functions involved in goal-directed behavior. Extensive research has been done to develop methods for recognizing physiological and psychophysiological signs of mental fatigue. Psychophysiological signs are mostly concern with patterns of brain activity and their relation to psychology and cognition. This has allowed the development of many AI-based models to classify different levels of fatigue, using data extracted from eye-tracking devices, electroencephalogram (EEG) measuring brain activity, or electrocardiogram (ECG) measuring cardiac activity. In this thesis, we present the experimental protocol developed by my research directors and I, which aims to both generate/measure mental fatigue and provide effective strategies for recuperation via VR sessions paired with EEG and eye-tracking devices. Successfully generating mental fatigue is crucial to generate a time-series dataset tracking the evolution of fatigue and recuperation during the experiment and will also be used to classify different levels of fatigue using machine learning. This thesis first provides a state-of-the-art of mental fatigue predictive factors, measurement methods, and recuperation strategies. The goal of this protocol is to (1) generate and measure mental fatigue, (2) evaluate the effectiveness of virtual therapy for fatigue recuperation, using a virtual reality (VR) simulated environment and (3) train a machine learning algorithm on EEG data to classify 3 different levels of fatigue. Virtual therapy is relaxation promoting technique in a virtual and interactive simulated environment which aims to reduce stress. In our work, we successfully generated mental fatigue through completion of cognitive tasks in a virtual simulated environment. Participants showed significant decline in pupil diameter and theta/alpha score during the various cognitive tasks. The alpha/theta score is an EEG index tracking fluctuations in cognitive load and mental fatigue. Various machine learning algorithm candidates were trained and tested on EEG data segments in order to select the classifier that best fits EEG data with respect to evaluation metric ‘balanced accuracy’ and 'f1-measures'. Among the 8 different classifier candidates, RBF SVM showed the best performance with 95% balanced accuracy 0.82 f-score value and on the validation set, and 92% accuracy and 0.90 f-score on test set. Balanced accuracy provides an accurate measure of performance in the case of imbalanced data, considering sensitivity and specificity and f-score is an evaluation metric which combines precision and recall scores. Finally, our results show that the time allocated for virtual therapy did not improve pupil diameter in the post-relaxation period. Further research on the impact of relaxation therapy should allocate time closer to the standard recovery time of 60 min.
110

Utilisation de l’intelligence artificielle pour identifier les marqueurs de la démence dans le trouble comportemental en sommeil paradoxal

Mekki Berrada, Loubna 08 1900 (has links)
La démence à corps de Lewy (DCL) et la maladie de Parkinson (MP) sont des maladies neurodégénératives touchant des milliers de Canadiens et leur prévalence croît avec l’âge. La MP et la DCL partagent la même pathophysiologie, mais se distinguent par l’ordre de manifestation des symptômes : la DCL se caractérise d’abord par l’apparition d’un trouble neurocognitif majeur (démence), tandis que la MP se manifeste initialement par un parkinsonisme. De plus, jusqu’à 80% des patients avec la MP développeront une démence (MPD). Il est désormais établi que le trouble comportemental en sommeil paradoxal idiopathique (TCSPi) constitue un puissant prédicteur de la DCL et la MP. En effet, cette parasomnie, marquée par des comportements indésirables durant le sommeil, est considérée comme un stade prodromal des synucléinopathies, telles que la MP, la DCL et l'atrophie multisystémique (AMS). Ainsi, la majorité des patients atteints d’un TCSPi développeront une synucléinopathie. Malgré les avancées scientifiques, les causes du TCSPi, de la MP et de la DCL demeurent inconnues et aucun traitement ne parvient à freiner ou à arrêter la neurodégénérescence. De plus, ces pathologies présentent une grande hétérogénéité dans l’apparition et la progression des divers symptômes. Face à ces défis, la recherche vise à mieux cerner les phases précoces/initiales et les trajectoires évolutives de ces maladies neurodégénératives afin d’intervenir le plus précocement possible dans leur développement. C’est pourquoi le TCSPi suscite un intérêt majeur en tant que fenêtre d'opportunités pour tester l’efficacité des thérapies neuroprotectrices contre les synucléinopathies, permettant d'agir avant que la perte neuronale ne devienne irréversible. Le TCSPi offre ainsi une occasion unique d'améliorer la détection de la démence et le suivi des individus à haut risque de déclin cognitif. D'où l'importance cruciale de pouvoir généraliser les résultats issus de la recherche sur de petites cohortes à l'ensemble de la population. Sur le plan de la cognition, les études longitudinales sur le TCSPi ont montré que les atteintes des fonctions exécutives, de la mémoire verbale et de l'attention sont les plus discriminantes pour différencier les individus qui développeront une démence de ceux qui resteront idiopathiques. De plus, un grand nombre de patients TCSPi souffrent d’un trouble neurocognitif mineur ou trouble cognitif léger (TCL), généralement considéré comme un stade précurseur de la démence. Les recherches actuelles sur les données cognitives chez cette population offrent des perspectives prometteuses, mais reposent sur des approches statistiques classiques qui limitent leur validation et généralisation. Bien qu'elles offrent une précision élevée (80 à 85%) pour détecter les patients à risque de déclin cognitif, une amélioration est nécessaire pour étendre l'utilisation de ces marqueurs à une plus large échelle. Depuis les années 2000, l'accroissement de la puissance de calcul et l'accès à davantage de ressources de mémoire ont suscité un intérêt accru pour les algorithmes d'apprentissage machine (AM). Ces derniers visent à généraliser les résultats à une population plus vaste en entraînant des modèles sur une partie des données et en les testant sur une autre, validant ainsi leur application clinique. Jusqu'à présent, aucune étude n'a évalué les apports de l'AM pour la prédiction de l'évolution des synucléinopathies en se penchant sur le potentiel de généralisation, et donc d'application clinique, à travers l'usage d'outils non invasifs et accessibles ainsi que de techniques de validation de modèles (model validation). De plus, aucune étude n'a exploré l'utilisation de l'AM associée à des méthodes de généralisation sur des données neuropsychologiques longitudinales pour élaborer un modèle prédictif de la progression des déficits cognitifs dans le TCSPi. L’objectif général de cette thèse est d’étudier l’apport de l’AM pour analyser l’évolution du profil cognitif de patients atteints d’un TCSPi. Le premier chapitre de cette thèse présente le cadre théorique qui a guidé l’élaboration des objectifs et hypothèses de recherche. Le deuxième chapitre est à deux volets (articles). Le premier vise à fournir une vue d'ensemble de la littérature des études ayant utilisé l'AM (avec des méthodes de généralisation) pour prédire l'évolution des synucléinopathies vers une démence, ainsi que les lacunes à combler. Le deuxième volet vise à explorer et utiliser pour la première fois l'AM sur des données cliniques et cognitifs pour prédire la progression vers la démence dans le TCSPi, dans un devis longitudinal. Enfin, le dernier chapitre de la thèse présente une discussion et une conclusion générale, comprenant un résumé des deux articles, ainsi que les implications théoriques, les forces, les limites et les orientations futures. / Lewy body dementia (LBD) and Parkinson's disease (PD) are neurodegenerative diseases affecting thousands of Canadians, and their prevalence increases with age. PD and DLB share the same pathophysiology, but differ in the order of symptom manifestation: DLB is characterized first by the onset of a major neurocognitive disorder (dementia), whereas PD initially manifests as parkinsonism. Moreover, up to 80% of PD patients will go on to develop dementia (PDD). It is established that idiopathic REM sleep behavior disorder (iRBD) is a powerful predictor of DLB and PD. Indeed, this parasomnia, marked by undesirable behaviors during sleep, is considered a prodromal stage of synucleinopathies, such as PD, DLB and multisystem atrophy (MSA). Therefore, the majority of patients with iRBD will develop synucleinopathy. Despite scientific advancements, the causes of iRBD, PD, and DLB remain unknown and no treatment has been able to slow or halt neurodegeneration. Furthermore, these pathologies display great heterogeneity in the onset and progression of various symptoms. Faced with these challenges, research aims to better understand the early/initial stages and the progressive trajectories of these neurodegenerative diseases in order to intervene as early as possible in their development. This is why iRBD garners major interest as a window of opportunities to test the effectiveness of neuroprotective therapies against synucleinopathies, enabling action to be taken before neuronal loss becomes irreversible. iRBD thus provides a unique opportunity to improve dementia detection and monitoring of individuals at high risk of cognitive decline. Hence the crucial importance of being able to generalize results of research on small cohorts to the entire population. In terms of cognition, longitudinal studies on iRBD have shown that impairments in executive functions, verbal memory, and attention are the most discriminating in differencing between individuals who will develop dementia from those who will remain idiopathic. In addition, many iRBD patients suffer from a mild neurocognitive disorder or mild cognitive impairment (MCI), generally considered as a precursor stage of dementia. Current research on cognitive data in this population offers promising prospects, but relies on traditional statistical approaches that limit their validation and generalizability. While they provide high accuracy (80 to 85%) for detecting patients at risk of cognitive decline, improvement is needed to extend the use of these markers to a larger scale. Since the 2000s, increased computational power and access to more memory resources have sparked growing interest in machine learning (ML) algorithms. These aim to generalize results to a broader population by training models on a subset of data and testing them on another, thus validating their clinical application. To date, no study has assessed the contributions of ML for predicting the progression of synucleinopathies, focusing on the potential for generalization, and hence clinical application, through the use of non-invasive, accessible tools and model validation techniques. Moreover, no study has explored the use of ML in conjunction with generalization methods on longitudinal neuropsychological data to develop a predictive model of cognitive deficit progression in iRBD. The general objective of this thesis is to study the contribution of ML in analyzing the evolution of the cognitive profile of patients with iRBD. The first chapter of this thesis presents the theoretical framework that guided the formulation of the research objectives and hypotheses. The second chapter is in two parts (articles). The first aims to provide an overview of the literature of studies that have used ML (with generalization methods) to predict the progression of synucleinopathies to dementia, as well as the gaps that need to be filled. The second part aims to explore and use for the first time ML on clinical and cognitive data to predict progression to dementia in iRBD, in a longitudinal design. Finally, the last chapter of the thesis presents a discussion and a general conclusion, including a summary of the two articles, as well as theoretical implications, strengths, limitations, and future directions.

Page generated in 0.5244 seconds