Spelling suggestions: "subject:"apprentissage machine"" "subject:"dapprentissage machine""
101 |
Searching for supersymmetry using deep learning with the ATLAS detectorGagnon, Louis-Guillaume 07 1900 (has links)
Le Modèle Standard de la physique des particules (MS) est une théorie
fondamentale de la nature dont la validité a été largement établie par
diverses expériences. Par contre, quelques problèmes théoriques et
expérimentaux subsistent, ce qui motive la recherche de théories
alternatives. La Supersymétrie (SUSY), famille de théories dans
laquelle une nouvelle particule est associée à chaque particules du
MS, est une des théories ayant les meilleures motivations pour étendre
la portée du modèle. Par exemple, plusieurs théories supersymétriques
prédisent de nouvelles particules stables et interagissant seulement
par la force faible, ce qui pourrait expliquer les observations
astronomiques de la matière sombre. La découverte de SUSY
représenterait aussi une importante étape dans le chemin vers une
théorie unifiée de l'univers. Les recherches de supersymétrie sont au
coeur du programme expérimental de la collaboration ATLAS, qui
exploite un détecteur de particules installé au Grand Collisioneur de
Hadrons (LHC) au CERN à Genève, mais à ce jours aucune preuve en
faveur de la supersymétrie n'a été enregistrée par les présentes
analyses, largement basées sur des techniques simples et bien
comprises.
Cette thèse documente l'implémentation d'une nouvelle approche à la
recherche de particules basée sur l'apprentissage profond, utilisant
seulement les quadri-impulsions comme variables discriminatoires;
cette analyse utilise l'ensemble complet de données d'ATLAS enregistré
en 2015-2018. Les problèmes de la naturalité du MS et de la matière
sombre orientent la recherche vers les partenaires supersymétriques du
gluon (le gluino), des quarks de troisième génération (stop et
sbottom), ainsi que des bosons de gauge (le neutralino). Plusieurs
techniques récentes sont employées, telles que l'utilisation directe
des quadri-impulsions reconstruites à partir des données enregistrées
par le détecteur ATLAS ainsi que la paramétrisation d'un réseau de
neurone avec les masses des particules recherchées, ce qui permet
d'atteindre une performance optimale quelle que soit l'hypothèse de
masses. Cette méthode améliore la signification statistique par un
facteur 85 par rapport au dernier résultat d'ATLAS pour certaines
hypothèses de masses, et ce avec la même luminosité.
Aucun excès signifif au-delà du Modèle Standard n'est observé. Les
masses du gluino en deçà de 2.45 TeV et du neutralino en deça de
1.7 TeV sont exclues à un niveau de confiance de 95%, ce qui étend
largement les limites précédentes sur deux modèles de productions de
paires de gluinos faisant intervenir des stops et des sbottoms,
respectivement. / The Standard Model of particle physics (SM) is a fundamental theory of
nature whose validity has been extensively confirmed by
experiments. However, some theoretical and experimental problems
subsist, which motivates searches for alternative theories to
supersede it. Supersymmetry (SUSY), which associate new fundamental
particles to each SM particle, is one of the best-motivated such
theory and could solve some of the biggest outstanding problems with
the SM. For example, many SUSY scenarios predict stable neutral
particles that could explain observations of dark matter in the
universe. The discovery of SUSY would also represent a huge step towards a
unified theory of the universe. Searches for SUSY are at the heart of
the experimental program of the ATLAS collaboration, which exploits a
state-of-the-art particle detector installed at the Large Hadron
Collider (LHC) at CERN in Geneva. The probability to observe many
supersymmetric particles went up when the LHC ramped up
its collision energy to 13~TeV, the highest ever achieved in
laboratory, but so far no evidence for SUSY has been recorded by
current searches, which are mostly based on well-known simple
techniques such as counting experiments.
This thesis documents the implementation of a novel deep
learning-based approach using only the four-momenta of selected
physics objects, and its application to the search for supersymmetric
particles using the full ATLAS 2015-2018
dataset. Motivated by naturalness considerations as well as by the
problem of dark matter, the search focuses on finding evidence for
supersymmetric partners of the gluon (the gluino), third generation
quarks (the stop and the sbottom), and gauge bosons (the neutralino).
Many recently introduced physics-specific machine learning
developments are employed, such as directly using detector-recorded
energies and momenta of produced particles instead of first deriving a
restricted set of physically motivated variables and parametrizing the
classification model with the masses of the particles searched for,
which allows optimal sensitivity for all mass hypothesis. This method
improves the statistical significance of the search by up to 85 times
that of the previous ATLAS analysis for some mass hypotheses, after
accounting for the luminosity difference.
No significant excesses above the SM background are recorded. Gluino
masses below 2.45 TeV and neutralino masses below 1.7 TeV are excluded
at the 95% confidence level, greatly increasing the previous limit on
two simplified models of gluino pair production with off-shell stops
and sbottoms, respectively.
|
102 |
Compression in Sequence to Sequence Learning for Natural Language ProcessingPrato, Gabriele 12 1900 (has links)
Dans ce travail, nous proposons une méthode presque sans perte d’information pour encoder de longues séquences de texte ainsi que toutes leurs sous-séquences en des représentations riches en information. Nous testons notre méthode sur une tâche d’analyse de sentiments et obtenons de bons résultats avec les vecteurs de sous-phrases et de phrases. Ce travail présente aussi l’utilisation de la distillation de connaissance et de la quantification pour compresser le modèle de Transformer [Vaswani et al., 2017] pour la tâche de traduction. Nous sommes, au mieux de nos connaissances, les premiers à démontrer que le Transformer avec ses poids quantifiés à 8-bits peut obtenir un score BLEU aussi bon qu’avec ses poids de précisions pleines. De plus, en combinant la distillation de connaissance avec la quantification des poids, nous pouvons entraîner de plus petits réseaux Transformer et obtenir un taux de compression jusqu’à 12.59x, en ne perdant que seulement 2.51 BLEU sur la tâche de traduction WMT 2014 Anglais-Français, comparativement au modèle de base. Le chapitre 1 introduit des concepts d’apprentissage machine pour le traitement des langues naturelles, concepts qui sont essentiels à la compréhension des deux papiers présentés dans cette thèse. Chapitre 2 et 3 couvrent respectivement chaque papier, avant de conclure par le chapitre 4. / In this work, we propose a near lossless method for encoding long sequences of texts as well as all of their sub-sequences into feature rich representations. We test our method on sentiment analysis and show good performance across all sub-sentence and sentence embeddings. This work also demonstrates the use of knowledge distillation and quantization to compress the original Transformer model [Vaswani et al., 2017] for the translation task. We are, to the best of our knowledge, the first to show that 8-bit quantization of the weights of the Transformer can achieve the same BLEU score as the full-precision model. Furthermore, when we combine knowledge distillation with weight quantization, we can train smaller Transformer networks and achieve up to 12.59x compression while losing only 2.51 BLEU off the baseline on the WMT 2014 English-to-French translation task. Chapter 1 introduces machine learning concepts for natural language processing which are essential to understanding both papers presented in this thesis. Chapter 2 and 3 cover each paper respectively, before finally concluding with chapter 4.
|
103 |
Investigation of neural activity in Schizophrenia during resting-state MEG : using non-linear dynamics and machine-learning to shed light on information disruption in the brainAlamian, Golnoush 08 1900 (has links)
Environ 25% de la population mondiale est atteinte de troubles psychiatriques qui sont typiquement associés à des problèmes comportementaux, fonctionnels et/ou cognitifs et dont les corrélats neurophysiologiques sont encore très mal compris. Non seulement ces dysfonctionnements réduisent la qualité de vie des individus touchés, mais ils peuvent aussi devenir un fardeau pour les proches et peser lourd dans l’économie d’une société. Cibler les mécanismes responsables du fonctionnement atypique du cerveau en identifiant des biomarqueurs plus robustes permettrait le développement de traitements plus efficaces. Ainsi, le premier objectif de cette thèse est de contribuer à une meilleure caractérisation des changements dynamiques cérébraux impliqués dans les troubles mentaux, plus précisément dans la schizophrénie et les troubles d’humeur. Pour ce faire, les premiers chapitres de cette thèse présentent, en intégral, deux revues de littératures systématiques que nous avons menées sur les altérations de connectivité cérébrale, au repos, chez les patients schizophrènes, dépressifs et bipolaires. Ces revues révèlent que, malgré des avancées scientifiques considérables dans l’étude de l’altération de la connectivité cérébrale fonctionnelle, la dimension temporelle des mécanismes cérébraux à l’origine de l’atteinte de l’intégration de l’information dans ces maladies, particulièrement de la schizophrénie, est encore mal comprise. Par conséquent, le deuxième objectif de cette thèse est de caractériser les changements cérébraux associés à la schizophrénie dans le domaine temporel. Nous présentons deux études dans lesquelles nous testons l’hypothèse que la « disconnectivité temporelle » serait un biomarqueur important en schizophrénie. Ces études explorent les déficits d’intégration temporelle en schizophrénie, en quantifiant les changements de la dynamique neuronale dite invariante d’échelle à partir des données magnétoencéphalographiques (MEG) enregistrés au repos chez des patients et des sujets contrôles. En particulier, nous utilisons (1) la LRTCs (long-range temporal correlation, ou corrélation temporelle à longue-distance) calculée à partir des oscillations neuronales et (2) des analyses multifractales pour caractériser des modifications de l’activité cérébrale arythmique. Par ailleurs, nous développons des modèles de classification (en apprentissage-machine supervisé) pour mieux cerner les attributs corticaux et sous-corticaux permettant une distinction robuste entre les patients et les sujets sains. Vu que ces études se basent sur des données MEG spontanées enregistrées au repos soit avec les yeux ouvert, ou les yeux fermées, nous nous sommes par la suite intéressés à la possibilité de trouver un marqueur qui combinerait ces enregistrements. La troisième étude originale explore donc l’utilité des modulations de l’amplitude spectrale entre yeux ouverts et fermées comme prédicteur de schizophrénie. Les résultats de ces études démontrent des changements cérébraux importants chez les patients schizophrènes au niveau de la dynamique d’invariance d’échelle. Elles suggèrent une dégradation du traitement temporel de l’information chez les patients, qui pourrait être liée à leurs symptômes cognitifs et comportementaux. L’approche multimodale de cette thèse, combinant la magétoencéphalographie, analyses non-linéaires et apprentissage machine, permet de mieux caractériser l’organisation spatio-temporelle du signal cérébrale au repos chez les patients atteints de schizophrénie et chez des individus sains. Les résultats fournissent de nouvelles preuves supportant l’hypothèse d’une « disconnectivité temporelle » en schizophrénie, et étendent les recherches antérieures, en explorant la contribution des structures cérébrales profondes et en employant des mesures non-linéaires avancées encore sous-exploitées dans ce domaine. L’ensemble des résultats de cette thèse apporte une contribution significative à la quête de nouveaux biomarqueurs de la schizophrénie et démontre l’importance d’élucider les altérations des propriétés temporelles de l’activité cérébrales intrinsèque en psychiatrie. Les études présentées offrent également un cadre méthodologique pouvant être étendu à d’autres psychopathologie, telles que la dépression. / Psychiatric disorders affect nearly a quarter of the world’s population. These typically bring about debilitating behavioural, functional and/or cognitive problems, for which the underlying neural mechanisms are poorly understood. These symptoms can significantly reduce the quality of life of affected individuals, impact those close to them, and bring on an economic burden on society. Hence, targeting the baseline neurophysiology associated with psychopathologies, by identifying more robust biomarkers, would improve the development of effective treatments. The first goal of this thesis is thus to contribute to a better characterization of neural dynamic alterations in mental health illnesses, specifically in schizophrenia and mood disorders. Accordingly, the first chapter of this thesis presents two systematic literature reviews, which investigate the resting-state changes in brain connectivity in schizophrenia, depression and bipolar disorder patients. Great strides have been made in neuroimaging research in identifying alterations in functional connectivity. However, these two reviews reveal a gap in the knowledge about the temporal basis of the neural mechanisms involved in the disruption of information integration in these pathologies, particularly in schizophrenia. Therefore, the second goal of this thesis is to characterize the baseline temporal neural alterations of schizophrenia. We present two studies for which we hypothesize that the resting temporal dysconnectivity could serve as a key biomarker in schizophrenia. These studies explore temporal integration deficits in schizophrenia by quantifying neural alterations of scale-free dynamics using resting-state magnetoencephalography (MEG) data. Specifically, we use (1) long-range temporal correlation (LRTC) analysis on oscillatory activity and (2) multifractal analysis on arrhythmic brain activity. In addition, we develop classification models (based on supervised machine-learning) to detect the cortical and sub-cortical features that allow for a robust division of patients and healthy controls. Given that these studies are based on MEG spontaneous brain activity, recorded at rest with either eyes-open or eyes-closed, we then explored the possibility of finding a distinctive feature that would combine both types of resting-state recordings. Thus, the third study investigates whether alterations in spectral amplitude between eyes-open and eyes-closed conditions can be used as a possible marker for schizophrenia. Overall, the three studies show changes in the scale-free dynamics of schizophrenia patients at rest that suggest a deterioration of the temporal processing of information in patients, which might relate to their cognitive and behavioural symptoms. The multimodal approach of this thesis, combining MEG, non-linear analyses and machine-learning, improves the characterization of the resting spatiotemporal neural organization of schizophrenia patients and healthy controls. Our findings provide new evidence for the temporal dysconnectivity hypothesis in schizophrenia. The results extend on previous studies by characterizing scale-free properties of deep brain structures and applying advanced non-linear metrics that are underused in the field of psychiatry. The results of this thesis contribute significantly to the identification of novel biomarkers in schizophrenia and show the importance of clarifying the temporal properties of altered intrinsic neural dynamics. Moreover, the presented studies offer a methodological framework that can be extended to other psychopathologies, such as depression.
|
104 |
Système intelligent pour le suivi et l’optimisation de l’état cognitifBen Abdessalem, Hamdi 04 1900 (has links)
Les émotions des êtres humains changent régulièrement et parfois de manière brusque entrainant un changement de l’état mental c’est-à-dire de l’aptitude cérébrale à fonctionner normalement. Il en résulte une capacité cognitive (ou état cognitif) de l’individu à pouvoir raisonner, accéder à la mémoire, ou effectuer des déductions, variable selon l’état mental. Ceci affecte, en conséquence, les performances des utilisateurs qui varient en fonction de leurs état cognitifs. Cette thèse vise à optimiser l’état cognitif d’un utilisateur lors de ses interactions avec un environnement virtuel. Comme cet état dépend des émotions, l’optimisation de l’état cognitif peut être réalisée à travers l’optimisation des émotions et en particulier la réduction des émotions négatives.
Une première partie concerne les moyens de mesurer en temps réel (par un Module de mesures) l’état émotionnel et mental d’un utilisateur lors de ses interactions avec un environnement virtuel. Nous avons réalisé pour cela quatre études expérimentales avec quatre environnements différents. Nous avons montré que ces mesures peuvent être réalisées en utilisant différents capteurs physiologiques. Nous avons aussi montré qu’il est possible de prédire la tendance de l’excitation (un état mental) à partir d’un traceur de regard.
Dans une deuxième partie, nous présentons l’Agent Neural qui modifie les environnements virtuels afin de provoquer une modification de l’état émotionnel d’un utilisateur pour améliorer son état cognitif. Nous avons réalisé quatre études expérimentales avec quatre environnements virtuels, où l’Agent Neural intervient dans ces environnements afin de changer l’état émotionnel de l’utilisateur. Nous avons montré que l’agent est capable d’intervenir dans plusieurs types d’environnements et de modifier les émotions de l’utilisateur.
Dans une troisième partie, présentons l’Agent Limbique, qui personnalise et améliore les adaptations faites par l’Agent Neural à travers l’observation et l’apprentissage des impacts des changements des environnements virtuels et des réactions émotionnelles des utilisateurs. Nous avons montré que cet agent est capable d’analyser les interventions de l’Agent Neural et de les modifier. Nous avons montré aussi que l’Agent Limbique est capable de générer une nouvelle règle d’intervention et de prédire son impact sur l’utilisateur.
La combinaison du Module de mesures, de l’Agent Neural, et de l’Agent Limbique, nous a permis de créer un système de contrôle cognitif intelligent que nous avons appelé Système Limbique Digital. / The human’s emotions change regularly and sometimes suddenly leading to changes in their mental state which is the brain’s ability to function normally. This mental state’s changes affect the users’ cognitive ability (or cognitive state) to reason, access memory, or make inferences, which varies depending on the mental state. Consequently, this affects the users’ performances which varies according to their cognitive states. This thesis aims to optimize the users’ cognitive state during their interactions with a virtual environment. Since this state depends on emotions, optimization of cognitive state can be achieved through the optimization of emotions and in particular the reduction of negative emotions.
In a first part, we present the means of measuring in real time (using a Measuring module) the users’ emotional and mental state during their interactions with a virtual environment. We performed four experimental studies with four different environments. We have shown that these measurements can be performed using different physiological sensors. We have also shown that it is possible to predict the tendency of excitement (a mental state) using an eye tracker.
In a second part, we present the Neural Agent which modifies virtual environments to provoke a modification on the users’ emotional state in order to improve their cognitive state. We performed four experimental studies with four virtual environments, in which the Neural Agent intervenes in these environments to change the users’ emotional state. We have shown that the agent is able to intervene in several types of environments and able to modify the users’ emotions.
In a third part, we present the Limbic Agent, which personalizes and improves the adaptations performed by the Neural Agent through the observation and the learning from the virtual environments changes’ impacts and the users’ emotional reactions. We have shown that this agent is able to analyze the Neural Agent’s interventions and able to modify them. We have also shown that the Limbic Agent is able to generate a new intervention rule and predict its impact on the user.
The combination of the Measuring Module, the Neural Agent, and the Limbic Agent, allowed us to create an intelligent cognitive control system that we called the Digital Limbic System.
|
105 |
L'intelligence artificielle : une certaine intelligence du socialFayon, Didier 09 1900 (has links)
Sociologie des techniques / Du point de vue d’une sociologie de la connaissance, la recherche contemporaine en intelligence artificielle tire son originalité de l’intérêt porté à la modélisation de la connaissance ordinaire, ce savoir engagé dans la vie de tous les jours (ex. aller l’épicerie, prendre son petit déjeuner). Les entreprises Facebook ou Google, le fameux GAFAM ainsi que les services de musique et de vidéos en ligne capturent et modélisent les faits et gestes du quidam afin de remettre les résultats de leurs calculs en jeu dans cette même vie courante. La recherche en IA porte également sur la mise en forme de savoirs savants et professionnels tout comme durant les années 1960 et 1970, mais cette thèse ne s’y intéressera pas.
Dans le cadre d’une sociologie des sciences et des techniques, je me questionne sur ce que nous, en tant que civilisation occidentale, faisons du développement technologique, du monde que nous construisons à l’aide des diverses techniques. Ma préoccupation ne porte pas sur les choix des objets privilégiés par la recherche des laboratoires publics et privés, mais sur les usages, les débouchés selon la question très générale : en quoi telle technique modifie-t-elle ou non notre façon de vivre ? Or, cette question relève d’un exercice de prospective dans la mesure où bien souvent nous ne possédons pas assez de recul sur ces techniques. Elle demeure malgré tout une préoccupation d’arrière-plan de mes questions de recherche. En effet, ces modèles d’apprentissage machine, trouveraient-ils leur place au sein d’une civilisation qui n’accorderait pas autant d’importance à l’efficacité, à la productivité, à la rentabilité, à la science ou encore au travail ? Aussi, viennent-ils entériner l’ordre établi ou bien offrent-ils de nouvelles possibilités d’existence ?
Comprendre minimalement l’artefact d’un point de vue technique et saisir du point de vue de la sociologie la façon dont les chercheurs pensent leurs objets nous éclaire sur les catégories de pensées principales qui orientent ces usages et le cas échéant sur les éventuels effets sociétaux. En l’occurrence, l’idée de modéliser de nombreuses activités de la vie quotidienne repose sur une représentation à priori de celle-ci de la part de chercheurs localisés socialement par leur profession et plus généralement leurs relations sociales diverses. Quelle est cette représentation et comment est-elle opérationnalisée dans les modèles ? Posée autrement, de quels rapports au monde témoignent ingénieurs et informaticiens par l’intermédiaire de leurs connaissances professionnelles, savantes et ordinaires ? Ainsi, dans cette thèse, mon travail se ramène à informer de la dimension sociale propre à la technique étudiée. À partir d’entretiens auprès de chercheurs en IA, la question de recherche est la suivante : quels sont les savoirs et raisonnements chez les chercheurs au fondement de l’élaboration des algorithmes relevant de l’intelligence artificielle contemporaine et qui construisent une représentation opératoire particulière de la vie sociale ? Exprimée en terme sociologique, cette question devient : en quoi les modèles d'apprentissage sont-ils un nouveau « modèle concret de connaissance » pour les usagers et informaticiens selon le concept développé par le sociologue Gilles Houles ?
Les modèles dits d’apprentissage sous-tendent une conception relationnelle de la constitution de la connaissance humaine et d’un rapport à la réalité médié par l’action comme moyen d’actualisation de cette connaissance. Résumé simplement, le concept sociologique de « modèle concret de connaissance » objective les deux modalités d’existence de la vie humaine que nous retrouvons empiriquement sous deux concepts informatiques : symbolique (leur modèle mathématique) et l’action ou « l’agent informatique » ou « celui qui agit », que ce concept soit mobilisé ou non par les chercheurs.
En somme, ces modèles en relation les uns avec les autres et matérialisés dans les objets dits connectés ou « smart » (ex. téléphones, électroménagers) forment un schéma opératoire organisateur de la vie sociale. Ce côté opératoire repose sur la position de « tiers médiateur » ou de « mémoire sociale technicisée » dans les relations humains-humains via machines. Je m'appuierai sur le concept de mémoire sociale et de morphologie sociale développée par le sociologue Maurice Halbwachs. Autrement dit, ce réseau d’objets connectés et d’êtres humains se ramène à l’instauration d’un cadre cognitif collectif particulier, issu des représentations sociales de groupes professionnels précis, mais mises en jeu dans la vie courante de tous, soit une institutionnalisation en cours.
En effet, la diffusion et l’adoption des modèles découlent d’un processus de reconnaissance publique de savoirs sous-jacents et déjà institutionnalisés, pour l'essentiel, les mathématiques et l’ingénierie, le savoir implicite des « sciences de la gestion » et un savoir dit « scientifique » par les chercheurs.
Plus précisément, le processus en cours consiste en l’institution d’êtres humains et de machines apprenantes en liens permanents via les objets connectés (« Internet of Things »). Au final, elle consiste en une mise en réseau des « régularités sociales » obtenues par classifications et régressions effectuées par les détenteurs des données. Je parlerai d'une « morphologie sociotechnique » ou d’une « configuration sociotechnique ». À la figure du robot polyvalent anthropomorphique censé condenser toute la mise en pratique du savoir sur l’IA, se substitue celle de relations sociales informatisées comme lieux du maintien des liens entre êtres humains par un concentré de savoirs et idées hétérogènes tels qu'un être humain ayant besoin d'aide ou la nécessité de la créativité par exemple. À l’usage, s’établit un type de lien social entre êtres humains via les machines pris entre la réduction propre à tout modèle de l’objet sur lequel il porte, la flexibilité qu’offre la possibilité d’ajustement (le côté « learning ») et le sens donné à l’action par l’utilisateur lambda. L’idéologie comme « mode de connaissance » du réseau sociotechnique est partie prenante de cette institutionnalisation en cours. Elle offre un cadre cognitif qui remet en cause la diversité produite par la division habituelle du travail sémantique au sein des ensembles sociaux en fournissant un modèle de légitimité, soit le discours du « partage ».
L’accent mis par cette thèse sur les « sciences de la gestion » et la notion de réseau l’inscrit dans le prolongement des études des trente dernières années sur cette « société informationnelle » de Manuel Castells, une « nouvelle représentation générale des sociétés » en réseau en suivant Luc Boltanski ou encore « l’esprit gestionnaire » qui s’empara des fonctionnaires d’État selon le sociologue Albert Ogien. / From the point of view of a sociology of knowledge, contemporary research in Artificial Intelligence (AI) draws its originality by its interest in the modeling of ordinary knowledge, that knowledge engaged in everyday life. The companies Facebook or Google, the so-called GAFAM, as well as online music and video services, capture and model the facts and gestures of the average person in order to put the results of their calculations back into play in its very everyday life. The research in AI also deals with academic and professional knowledge as it did in the 1960s and 1970s, but this thesis will not focus on it.
Within the framework of a sociology of science and technology, I question what We, as the Western civilization, do with technological development, about the world we build with the help of various techniques. My concern is not with the choice of research objects privileged by public and private laboratories, but with the uses, the outlets according to the very general question: In what way does such a technique modify or not our way of living? Now, this question is an exercise in foresight insofar as we often do not have enough hindsight on these techniques. Nevertheless, it remains a background concern of my research. Indeed, would these machine learning models find their place in a civilization that would not give as much importance to efficiency, productivity, profitability, science or work? Also, do they endorse the established social organization, or do they offer new possibilities of existence?
Understanding the artifact minimally from a technical perspective and grasping from a sociological point of view the way in which researchers think about their objects sheds light on the main categories of thought that guide these uses and, if applicable, on the possible societal effects. In this case, the idea of modeling many activities of daily life is based on an a priori representation of it by researchers who are socially situated by their profession. What is this representation and how is it operationalized in the models? Put differently, what relationships to the world do engineers and computer scientists have through their professional, academic and ordinary knowledge? Thus, in this thesis, my work comes down to informing the social dimension specific to the studied technique. Based on interviews with AI researchers, the question is as follows: What is the knowledge and reasoning of the researchers at the core of the algorithms of contemporary artificial intelligence and which build a specific operational representation of social life? Expressed in sociological terms, this question becomes: In what way are learning models a new "concrete model of knowledge" for users et researchers according to the concept developed by the sociologist Gilles Houles?
The so-called learning models underlie a relational constitution of human knowledge and of a relation to reality mediated by actions as a means of actualization of this knowledge. Summarized simply, the sociological concept of "concrete model of knowledge" objectifies the two modalities of existence of the human life that we find empirically under two computing concepts: symbolic (their mathematical model) and the “action” as "the computing agent" or "the one who acts", whether this concept is used or not by the researchers.
In sum, these models in relation to each other and materialized in the notorious connected or "smart" objects (e.g. telephones, household appliances) turn social life into a sociotechnical network. Its operational side relies on the position of "third-party intermediary" or "technical social memory" in human-human relations via machines. I will draw upon the concept of "social memory" and "social morphology" developed by the sociologist Maurice Halbwachs. In other words, this network of connected objects and human beings comes down to the establishment of a particular collective cognitive framework, stemming from the social representations of specific professional groups, but put into play in the everyday life of all, that is to say an institutionalization in progress.
Indeed, the diffusion and adoption of the models stem from a process of public recognition of underlying and already institutionalized knowledge, essentially mathematics and engineering, the implicit knowledge of the "management sciences" and a knowledge called "scientific" by researchers.
More precisely, the process underway consists in the institution of human beings and learning machines in permanent links via connected objects ("Internet of Things"). In the end, it consists in the networking of "social regularities" obtained by classifications and regressions carried out by the data's owners. I will speak of a "sociotechnical morphology" or a "sociotechnical configuration". The figure of the anthropomorphic multipurpose robot, which is supposed to condense all the practical application of knowledge on AI, is replaced by that of computerized social relations as places where links between human beings are maintained by a concentration of heterogeneous knowledge and ideas, such as a human being in need of help or the need for creativity, for example. In use, a type of social link between human beings via the machines is established, caught between the reduction proper to any modelling of the object on which it concerns, the flexibility offered by the possibility of adjustment (the "learning" side) and the meaning given to the action by the lambda user. Ideology as a "mode of knowledge" of the socio-technical network is part of this ongoing institutionalization. It offers a cognitive framework that challenges the diversity produced by the usual division of semantic labor within social groups by providing a model of legitimacy, namely the discourse of "sharing".
The emphasis placed by this thesis on the "management sciences" and the notion of network places it in the continuity of the studies of the last thirty years on this "informational society" of Manuel Castells, a "new general representation of societies" into a network according to Luc Boltanski, or the "managerial spirit" which took hold of the State civil servants according to the sociologist Albert Ogien
|
106 |
Alzheimer prediction from connected speech extracts : assessment of generalisation to new dataChafouleas, Geneviève 09 1900 (has links)
co-direction : Simona Brambati / Plusieurs avancées utilisant le discours obtenu de la tâche de description d’image ont été
réalisées dans la détection de la maladie d’Alzheimer (AD). L’utilisation de caractéristiques
linguistiques et acoustiques sélectionnées manuellement ainsi que l’utilisation de méthodologies
d’apprentissage profond ont montré des résultats très prometteurs dans la classification
des patients avec AD. Dans ce mémoire, nous comparons les deux méthodologies sur la
scène Cookie Theft du Boston Aphasia Examination en entrainant des modèles avec des
caractéristiques sélectionnées à partir des extraits textuels et audio ainsi que sur un modèle
d’apprentissage profond BERT. Nos modèles sont entrainés sur l’ensemble de données
ADReSS challenge plus récent et évaluées sur l’ensemble de données CCNA et vice versa
pour mesurer la généralisation des modèles sur des exemples jamais vus dans des ensembles
de données différents. Une évaluation détaillée de l’interprétabilité des modèles est effectuée
pour déterminer si les modèles ont bien appris les représentations reliées à la maladie.
Nous observons que les modèles ne performent pas bien lorsqu’ils sont évalués sur différents
ensembles de données provenant du même domaine. Les représentations apprises des
modèles entrainés sur les deux ensembles de données sont très différentes, ce qui pourrait
expliquer le bas niveau de performance durant l’étape d’évaluation. Même si nous démontrons
l’importance des caractéristiques linguistiques sur la classification des AD vs contrôle,
nous observons que le meilleur modèle est BERT avec un niveau d’exactitude de 62.6% sur
les données ADReSS challenge et 66.7% sur les données CCNA. / Many advances have been made in the early diagnosis of Alzheimer’s Disease (AD) using
connected speech elicited from a picture description task. The use of hand built linguistic
and acoustic features as well as Deep Learning approaches have shown promising results in
the classification of AD patients. In this research, we compare both approaches on the Cookie
Theft scene from the Boston Aphasia Examination with models trained with features derived
from the text and audio extracts as well as a Deep Learning approach using BERT. We train
our models on the newer ADReSS challenge dataset and evaluate on the CCNA dataset and
vice versa in order to asses the generalisation of the trained model on unseen examples from
a different dataset. A thorough evaluation of the interpretability of the models is performed
to see how well each of the models learn the representations related to the disease. It is
observed that the models do not perform well when evaluated on a different dataset from
the same domain. The selected and learned representations from the models trained on
either dataset are very different and may explain the low performance in the evaluation step.
While we demonstrate the importance of linguistic features in the classification of AD vs
non-AD, we find the best overall model is BERT which achieves a test accuracy of 62.6% on
the ADRess challenge dataset and 66.7% on the CCNA dataset.
|
107 |
Estimation de pose 2D par réseau convolutifHuppé, Samuel 04 1900 (has links)
Magic: The Gathering} est un jeu de cartes à collectionner stochastique à information imparfaite inventé par Richard Garfield en 1993. Le but de ce projet est de proposer un pipeline d'apprentissage machine permettant d'accomplir la détection et la localisation des cartes du jeu \textit{Magic} au sein d'une image typique des tournois de ce jeu. Il s'agit d'un problème de pose d'objets 2D à quatre degrés de liberté soit, la position sur deux axes, la rotation et l'échelle, dans un contexte où les cartes peuvent être superposées. À travers ce projet, nous avons développé une approche par données synthétiques à deux réseaux capable, collectivement d'identifier, et de régresser ces paramètres avec une précision significative. Dans le cadre de ce projet, nous avons développé un algorithme d'apprentissage profond par données synthétiques capable de positionner une carte avec une précision d'un demi pixel et d'une rotation de moins d'un degré. Finalement, nous avons montré que notre jeu de données synthétique est suffisamment réaliste pour permettre à nos réseaux de généraliser aux cas d'images réelles. / Magic: The Gathering} is an imperfect information, stochastic, collectible card game invented by Richard Garfield in 1993. The goal of this project is to propose a machine learning pipeline capable of detecting and localising \textit{Magic} cards within an image. This is a 2D pose problem with 4 degrees of freedom, namely translation in $x$ and $y$, rotation, and scale, in a context where cards can be superimposed on one another. We tackle this problem by relying on deep learning using a combination of two separate neural networks. Our final pipeline has the ability to tackle real-world images and gives, with a very good degree of precision, the poses of cards within an image. Through the course of this project, we have developped a method of realistic synthetic data generation to train both our models to tackle real world images. The results show that our pose subnetwork is able to predict position within half a pixel, rotation within one degree and scale within 2 percent.
|
108 |
Élaboration d’une signature cérébrale de l’expression faciale de la douleur via l’utilisation d’approches d’apprentissage machinePicard, Marie-Eve 12 1900 (has links)
L’expression faciale est un vecteur de communication important dans l’expérience de douleur. Cependant, les corrélats neuronaux associés à cette manifestation de la douleur demeurent peu investigués. Le but de ce mémoire était de développer un modèle neurobiologique permettant de prédire l’expression faciale évoquée par des stimuli douloureux afin d’approfondir nos connaissances sur les mécanismes cérébraux de la douleur et de la communication non verbale. La signature cérébrale de l’expression faciale de la douleur a été élaborée sur un jeu de données d’IRMf acquis chez des adultes en santé en utilisant des algorithmes d’apprentissage machine pour prédire des scores d’expression faciale évoquée par des stimulations douloureuses phasiques (c.-à-d. de courtes stimulations) à l’échelle de la population. Les résultats suggèrent qu’il est possible de prédire ces réponses faciales à partir d’un patron d’activation multivoxels. Cette signature cérébrale se distingue, du moins partiellement, de signatures cérébrales prédictives de l’intensité et du caractère déplaisant de la douleur rapportée et de la valeur future de la douleur. Bien que d’autres études soient nécessaires pour examiner la spécificité et la généralisabilité de la signature cérébrale de l’expression faciale de la douleur, ce mémoire souligne l’existence d’une représentation cérébrale spatialement distribuée prédictive des réponses faciales en lien avec la douleur, et suggère l’importance de cette mesure comportementale dans l’expérience de la douleur comme étant complémentaire aux mesures autorapportées de l’intensité perçue. / Facial expression is an important communication vector in the experience of pain.
However, the neural correlates associated with this manifestation of pain remain relatively
unexplored. The goal of this thesis was to develop a neurobiological model to predict facial
expression evoked by painful stimuli in order to expand our knowledge of the brain
mechanisms of pain and non-verbal communication. The brain signature of facial expressions
of pain was developed on a dataset including healthy adults using machine learning
algorithms to predict facial expression scores evoked by phasic painful stimuli (i.e., short
stimulation) at the population level. The results suggest that it is possible to predict the facial
expression of pain from a multivoxel activation pattern. This brain signature of facial pain
expression is at least partially distinct from other brain signatures predictive of reported pain
intensity and unpleasantness, and future pain value. Although further studies are needed to
examine the specificity and generalizability of the brain signature of facial expression of pain,
this master thesis highlights the existence of a spatially distributed brain representation
predictive of pain-related facial responses, and suggests the importance of this behavioural
measure in the experience of pain as complementary to self-reported measures of pain
intensity.
|
109 |
Investigating intra and inter-subject performance with deep learning for gait on irregular surfacesLam, Guillaume 04 1900 (has links)
La médecine personnalisée promet des soins adaptés à chaque patient. Cependant, l’ap-
prentissage automatique appliqué à cette fin nécessite beaucoup d’améliorations. L’évalua-
tion des modèles est une étape cruciale qui nécessite du travail pour amener à un niveau
acceptable pour son utilisation avec des participants. Actuellement, les performances sur
les ensembles de données biomédicales sont évaluées à l’aide d’un découpage intra-sujet ou
inter-sujet. Le premier se concentre sur l’évaluation des participants présents à la fois dans les
ensembles d’entraînement et de test. Ce dernier sépare les participants pour chaque ensemble.
Ces termes sont respectivement synonymes de fractionnement aléatoire et par sujet. Deux
méthodes principales se présentent comme des solutions pour obtenir des performances de
franctionnement aléatoires lors d’entraînement de méthodes par sujet, calibration et sans ca-
libration. Alors que la calibration se concentre sur l’entraînement d’un petit sous-ensemble
de participant non vues, les méthodes sans calibration visent à modifier l’architecture du
modèle ou les traitements préliminaire pour contourner la nécessité du sous-ensemble. Ce
mémoire étudiera la calibration non paramétrique pour ses propriétés d’indépendance de
la modalité. L’article présenté détaillera cette enquête pour combler l’écart de performance
sur un ensemble de données d’essais de marche sur des surfaces irrégulières. Nous détermi-
nons que quelques cycles (1-2) de marche sont suffisants pour calibrer les modèles pour des
performances adéquates (F1 : +90%). Avec accès à des essais de cycle de marche supplémen-
taires (+10), le modèle a atteint à peu près les mêmes performances qu’un modèle formé
à l’aide d’une approche de fractionnement aléatoire (F1 : 95-100%). Suivant les objectifs
de la médecine personnalisée, des voies de recherche supplémentaires sont décrites, telles
qu’une méthode alternative de distribution de modèles qui s’adapte aux étapes de recherche
tout en réduisant les coûts de calcul pour les développeurs de modèles. Nous constatons
que l’étalonnage est une méthode valable pour surmonter l’écart de performance. Les ré-
sultats correspondent aux découvertes précédentes utilisant l’étalonnage pour obtenir des
performances robustes. / Personalized medicine promises care tailored to each patient; however, machine learning
applied to this end needs much improvement. Evaluation of models is a crucial step which
necessitates attention when utilized with participants. Currently, performance on biomedical datasets is evaluated using either intra-subject or inter-subject splitting. The former
focuses on the evaluation of participants present in both training and testing sets. The latter separates participants for each set. These terms are synonymous with random-wise and
subject-wise splitting, respectively. Two main methods present themselves as solutions to
achieving random-wise performance while training on a subject-wise dataset split, calibration and calibration-free methods. While calibration focuses on training a small subset of
unseen data trials, calibration-free methods aim to alter model architecture or pre-processing
steps to bypass the necessity of training data points. This thesis investigates non-parametric
calibration for its modality-agnostic properties. The article presented details this investigation at bridging the performance gap on a dataset of gait trials on irregular surfaces. We
determine few (1-2) gait cycles are sufficient to calibrate models for adequate performance
(F1:+90%). With access to additional gait cycle trials, the model achieved nearly the same
performance as a model trained using a random-split approach (F1:95-100%). Following the
goals of personalized medicine, additional research paths are outlined, such as an alternative
model distribution method which fits with research steps while reducing computational costs
for model developers. We find that calibration is a valid method to overcome the performance gap. The presented results correspond with previous findings by using calibration to
achieve robust performance.
|
110 |
Detection, recuperation and cross-subject classification of mental fatigueHajj Assaf, Alyssa 04 1900 (has links)
La fatigue mentale est un état complexe qui résulte d'une activité cognitive prolongée. Les
symptômes de la fatigue mentale inclus des changements d'humeur, de motivation et une
détérioration temporaire de diverses fonctions cognitives. Plusieurs recherches approfondies ont
été menées pour développer des méthodes de reconnaissance des signes physiologiques et
psychophysiologiques de la fatigue mentale. Les signes psychophysiologiques concernent
principalement signaux d'activité cérébrale et leur relation avec la psychologie et la cognition.
Celles-ci ont permise le développement de nombreux modèles basés sur l'IA pour classer
différents niveaux de fatigue, en utilisant des données extraites d'un appareil eye-tracking, d'un
électroencéphalogramme (EEG) pour mesurer l’activité cérébrale ou d'un électrocardiogramme
(ECG) pour mesurer l’activité cérébrale. Dans cette mémoire, nous présentons le protocole
expérimental et développé par mes directeurs de recherche et moi-même, qui vise à la fois à
générer et mesurer la fatigue mentale, et à proposer des stratégies efficaces de récupération via
des séances de réalité virtuelle couplées à des dispositifs EEG et eye tracking. Réussir à générer
de la fatigue mentale est nécessaire pour générer un ensemble de données suivant l’évolution de
la fatigue et de la récupération au cours de l’expérience, et sera également utilisé pour classer
différents niveaux de fatigue à l’aide de l’apprentissage automatique. Cette mémoire fournit
d'abord un état de l'art complet des facteurs prédictifs de la fatigue mentale, des méthodes de
mesure et des stratégies de récupération. Ensuite, l'article présente un protocole expérimental
résultant de l'état de l'art pour (1) générer et mesurer la fatigue mentale et (2) évaluer l'efficacité
de la thérapie virtuelle pour la récupération de la fatigue, (3) entrainer un algorithme
d'apprentissage automatique sur les données EEG pour classer 3 niveaux de fatigue différents en
utilisant un environnement simulé de réalité virtuelle (VR). La thérapie virtuelle est une technique
favorisant la relaxation dans un environnement simulé virtuel et interactif qui vise à réduire le
stress. Dans notre travail, nous avons réussi à générer de la fatigue mentale en accomplissant des
tâches cognitives dans un environnement virtuel. Les participants ont montré une diminution
significative du diamètre de la pupille et du score thêta/alpha au cours des différentes tâches
cognitives. Le score alpha/thêta est un indice EEG qui suit les fluctuations de la charge cognitiveet de la fatigue mentale. Divers algorithmes d'apprentissage automatique ont été formés et testés
sur des segments de données EEG afin de sélectionner le modèle qui s'ajuste le mieux à ces
données en ce qui concerne la métrique d'évaluation "précision équilibrée" et "f1". Parmi les 8
différents classificateurs, le SVM RBF a montré les meilleures performances avec une précision
équilibrée de 95 % et une valeur de mesure f de 0,82. La précision équilibrée fournit une mesure
précise de la performance dans le cas de jeu de données déséquilibrées, en tenant compte de la
sensibilité et de la spécificité, et le f-score est une mesure d'évaluation qui combine les scores de
précision et de rappel. Finalement, nos résultats montrent que le temps alloué à la thérapie
virtuelle n'a pas amélioré le diamètre pupillaire en période post-relaxation. D'autres recherches
sur l'impact de la thérapie devraient consacrer un temps plus proche du temps de récupération
standard de 60 min. / Mental fatigue is a complex state that results from prolonged cognitive activity. Symptoms of
mental fatigue can include change in mood, motivation, and temporary deterioration of various
cognitive functions involved in goal-directed behavior. Extensive research has been done to
develop methods for recognizing physiological and psychophysiological signs of mental fatigue.
Psychophysiological signs are mostly concern with patterns of brain activity and their relation to
psychology and cognition. This has allowed the development of many AI-based models to classify
different levels of fatigue, using data extracted from eye-tracking devices, electroencephalogram
(EEG) measuring brain activity, or electrocardiogram (ECG) measuring cardiac activity. In this
thesis, we present the experimental protocol developed by my research directors and I, which
aims to both generate/measure mental fatigue and provide effective strategies for recuperation
via VR sessions paired with EEG and eye-tracking devices. Successfully generating mental fatigue
is crucial to generate a time-series dataset tracking the evolution of fatigue and recuperation
during the experiment and will also be used to classify different levels of fatigue using machine
learning. This thesis first provides a state-of-the-art of mental fatigue predictive factors,
measurement methods, and recuperation strategies. The goal of this protocol is to (1) generate
and measure mental fatigue, (2) evaluate the effectiveness of virtual therapy for fatigue
recuperation, using a virtual reality (VR) simulated environment and (3) train a machine learning
algorithm on EEG data to classify 3 different levels of fatigue. Virtual therapy is relaxation
promoting technique in a virtual and interactive simulated environment which aims to reduce
stress. In our work, we successfully generated mental fatigue through completion of cognitive
tasks in a virtual simulated environment. Participants showed significant decline in pupil diameter
and theta/alpha score during the various cognitive tasks. The alpha/theta score is an EEG index
tracking fluctuations in cognitive load and mental fatigue. Various machine learning algorithm
candidates were trained and tested on EEG data segments in order to select the classifier that
best fits EEG data with respect to evaluation metric ‘balanced accuracy’ and 'f1-measures'. Among
the 8 different classifier candidates, RBF SVM showed the best performance with 95% balanced
accuracy 0.82 f-score value and on the validation set, and 92% accuracy and 0.90 f-score on test set. Balanced accuracy provides an accurate measure of performance in the case of imbalanced
data, considering sensitivity and specificity and f-score is an evaluation metric which combines
precision and recall scores. Finally, our results show that the time allocated for virtual therapy did
not improve pupil diameter in the post-relaxation period. Further research on the impact of
relaxation therapy should allocate time closer to the standard recovery time of 60 min.
|
Page generated in 0.1249 seconds