• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 249
  • 134
  • 32
  • Tagged with
  • 438
  • 438
  • 245
  • 210
  • 178
  • 153
  • 138
  • 108
  • 103
  • 94
  • 86
  • 84
  • 82
  • 79
  • 77
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
291

Impact detection and classification for safe physical Human-Robot Interaction under uncertainties / Détection et classification d'impact pour l'interaction physique Homme-Robot sûre en présence d'incertitudes

Briquet-Kerestedjian, Nolwenn 10 July 2019 (has links)
La problématique traitée dans cette thèse vise à développer une stratégie efficace de détection et de classification des impacts en présence d'incertitudes de modélisation du robot et de son environnement et en utilisant un nombre minimal de capteurs, notamment en l'absence de capteur d’effort.La première partie de la thèse porte sur la détection d'un impact pouvant avoir lieu à n'importe quel endroit du bras robotique et à n'importe quel moment de sa trajectoire. Les méthodes de détection d’impacts sont généralement basées sur un modèle dynamique du système, ce qui les rend sujettes au compromis entre sensibilité de détection et robustesse aux incertitudes de modélisation. A cet égard, une méthodologie quantitative a d'abord été mise au point pour rendre explicite la contribution des erreurs induites par les incertitudes de modèle. Cette méthodologie a été appliquée à différentes stratégies de détection, basées soit sur une estimation directe du couple extérieur, soit sur l'utilisation d'observateurs de perturbation, dans le cas d’une modélisation parfaitement rigide ou à articulations flexibles. Une comparaison du type et de la structure des erreurs qui en découlent et de leurs conséquences sur la détection d'impacts en a été déduite. Dans une deuxième étape, de nouvelles stratégies de détection d'impacts ont été conçues: les effets dynamiques des impacts sont isolés en déterminant la marge d'erreur maximale due aux incertitudes de modèle à l’aide d’une approche stochastique.Une fois l'impact détecté et afin de déclencher la réaction post-impact du robot la plus appropriée, la deuxième partie de la thèse aborde l'étape de classification. En particulier, la distinction entre un contact intentionnel (l'opérateur interagit intentionnellement avec le robot, par exemple pour reconfigurer la tâche) et un contact non-désiré (un sujet humain heurte accidentellement le robot), ainsi que la localisation du contact sur le robot, est étudiée en utilisant des techniques d'apprentissage supervisé et plus spécifiquement des réseaux de neurones feedforward. La généralisation à plusieurs sujet humains et à différentes trajectoires du robot a été étudiée. / The present thesis aims to develop an efficient strategy for impact detection and classification in the presence of modeling uncertainties of the robot and its environment and using a minimum number of sensors, in particular in the absence of force/torque sensor.The first part of the thesis deals with the detection of an impact that can occur at any location along the robot arm and at any moment during the robot trajectory. Impact detection methods are commonly based on a dynamic model of the system, making them subject to the trade-off between sensitivity of detection and robustness to modeling uncertainties. In this respect, a quantitative methodology has first been developed to make explicit the contribution of the errors induced by model uncertainties. This methodology has been applied to various detection strategies, based either on a direct estimate of the external torque or using disturbance observers, in the perfectly rigid case or in the elastic-joint case. A comparison of the type and structure of the errors involved and their consequences on the impact detection has been deduced. In a second step, novel impact detection strategies have been designed: the dynamic effects of the impacts are isolated by determining the maximal error range due to modeling uncertainties using a stochastic approach.Once the impact has been detected and in order to trigger the most appropriate post-impact robot reaction, the second part of the thesis focuses on the classification step. In particular, the distinction between an intentional contact (the human operator intentionally interacts with the robot, for example to reconfigure the task) and an undesired contact (a human subject accidentally runs into the robot), as well as the localization of the contact on the robot, is investigated using supervised learning techniques and more specifically feedforward neural networks. The challenge of generalizing to several human subjects and robot trajectories has been investigated.
292

Étude de la faisabilité d'une recherche de nouvelle physique dans l'expérience ATLAS à l'aide d'un auto-encodeur variationnel

Pilette, Jacinthe 04 1900 (has links)
Depuis la découverte du boson de Higgs en 2012, les physiciens et physiciennes des particules tentent de trouver des signes de nouvelle physique. Bien que le modèle standard décrivant les forces et particules aient été confirmé par les expériences telles que ATLAS au Grand collisionneur de hadrons (LHC), ce modèle décrit seulement 5% de la matière de notre Univers. Face à l’absence d’excès dans les recherches concentrées sur des modèles de nouvelle physique, l’intelligence artificielle pourrait être la solution. Ce mémoire s’inscrit dans une perspective novatrice de recherche générale de nouvelle physique indépendante des modèles théoriques dans les données du détecteur ATLAS, par l’utilisation de l’apprentissage machine. Ici, nous nous intéressons à l’application de réseaux de neurones dans les données de simulation de collision proton-proton à \sqrt{s} = 13 TeV du détecteur ATLAS. Nous étudierons la performance d’auto-encodeurs variationnels dans les jets boostés, ces jets qui pourraient cacher des signes de nouvelle physique. Pour analyser la performance de notre réseau, nous entraînons celui-ci sur les quadri-vecteurs de jets issus de gluons et de quarks légers. Nous tentons de retrouver un signal test, les jets issus de quarks top boostés, dans les données de simulation en effectuant des sélections sur les scores d’anomalie retournés par le réseau. Nos modèles d’auto-encodeurs variationnels atteignent une bonne discrimination entre le bruit de fond et le signal du quark top. Nous devrons toutefois améliorer le rejet du bruit de fond pour purifier notre signal en fonction de nos sélections. / Since the discovery of the Higgs boson in 2012, particle physicists are searching for signs of new physics. Although the standard model describing forces and particles has been confirmed by experiments like ATLAS at the Large Hadron Collider (LHC), it only describes 5% of the matter of the universe. Facing the absence of excess in searches for new physics model, artificial intelligence could be the solution. This master thesis is part of a novel general model-independent search for new physics in the ATLAS detector data using machine learning. Here, we are interested in the application of neural networks in \sqrt{s} = 13 TeV proton-proton collision ATLAS simulation data. We study the performance of variational auto-encoders in boosted jets, who might be hiding signs of new physics. To analyze our network performance, we train the network on jets four-vectors coming from gluons and light quarks. We try to find a test signal, boosted top quark jets, in our simulation data by applying selections on the anomaly scores returned by our network. Our variational auto-encoder reach a good discrimination between the background and the top quark signal. However, we need to improve background rejection to purify our signal as a function of our selections.
293

AI-based modeling of brain and behavior : combining neuroimaging, imitation learning and video games

Kemtur, Anirudha 07 1900 (has links)
Les récentes avancées dans le domaine de l'intelligence artificielle ont ouvert la voie au développement de nouveaux modèles d'activité cérébrale. Les réseaux neuronaux artificiels (RNA) formés à des tâches complexes, telles que la reconnaissance d'images, peuvent être utilisés pour prédire la dynamique cérébrale en réponse à une série de stimuli avec une précision sans précédent, un processus appelé encodage cérébral. Les jeux vidéo ont fait l'objet d'études approfondies dans le domaine de l'intelligence artificielle, mais n'ont pratiquement pas été utilisés pour l'encodage cérébral. Les jeux vidéo offrent un cadre prometteur pour comprendre l'activité cérébrale dans un environnement riche, engageant et actif, contrairement aux tâches essentiellement passives qui dominent actuellement le domaine, telles que la visualisation d'images. Un défi majeur soulevé par les jeux vidéo complexes est que le comportement individuel est très variable d'un sujet à l'autre, et nous avons émis l'hypothèse que les RNAs doivent prendre en compte le comportement spécifique du sujet afin de capturer correctement les dynamiques cérébrales. Dans cette étude, nous avons cherché à utiliser des RNAs pour modéliser l'imagerie par résonance magnétique fonctionnelle (IRMf) et les données comportementales des participants, que nous avons collectées pendant que les sujets jouaient au jeu vidéo Shinobi III. En utilisant l'apprentissage par imitation, nous avons entraîné un RNA à jouer au jeu vidéo en reproduisant fidèlement le style de jeu unique de chaque participant. Nous avons constaté que les couches cachées de notre modèle d'apprentissage par imitation parvenaient à encoder des représentations neuronales pertinentes pour la tâche et à prédire la dynamique cérébrale individuelle avec une plus grande précision que divers modèles de contrôle, y compris des modèles entraînés sur les actions d'autres sujets. Les corrélations les plus fortes entre les activations des couches cachées et les signaux cérébraux ont été observées dans des zones cérébrales biologiquement plausibles, à savoir les réseaux somatosensoriels, attentionnels et visuels. Nos résultats soulignent le potentiel de la combinaison de l'apprentissage par imitation, de l'imagerie cérébrale et des jeux vidéo pour découvrir des relations spécifiques entre le cerveau et le comportement. / Recent advances in the field of Artificial Intelligence have paved the way for the development of novel models of brain activity. Artificial Neural networks (ANN) trained on complex tasks, such as image recognition and language processing, can be used to predict brain dynamics in response to wide range of stimuli with unprecedented accuracy, a process called brain encoding. Videogames have been extensively studied in the AI field, but have hardly been used yet for brain encoding. Videogames provide a promising framework to understand brain activity in rich, engaging and active environments, in contrast to mostly passive tasks currently dominating the field, such as image viewing. A major challenge raised by complex videogames is that individual behavior is highly variable across subjects, and we hypothesized that ANNs need to account for subject-specific behavior in order to properly capture brain dynamics. In this study, we aimed to use ANNs to model functional magnetic resonance imaging (fMRI) and behavioral gameplay data, which we collected while subjects played the Shinobi III videogame. Using imitation learning, we trained an ANN to play the game closely replicating the unique gameplay style of individual participants. We found that hidden layers of our imitation learning model successfully encode task-relevant neural representations and predict individual brain dynamics with higher accuracy than various control models, including models trained on other subjects' actions. The highest correlations between layer activations and brain signals were observed in biologically plausible brain areas, i.e. somatosensory, attentional and visual networks. Our results highlight the potential of combining imitation learning, brain imaging, and videogames to uncover subject-specific relationships between brain and behavior.
294

Développement et validation d’un modèle d’apprentissage machine pour la détection de potentiels donneurs d’organes

Sauthier, Nicolas 08 1900 (has links)
Le processus du don d’organes, crucial pour la survie de nombreux patients, ne répond pas à la demande croissante. Il dépend d’une identification, par les cliniciens, des potentiels donneurs d’organes. Cette étape est imparfaite et manque entre 30% et 60% des potentiels donneurs d’organes et ce indépendamment des pays étudiés. Améliorer ce processus est un impératif à la fois moral et économique. L’objectif de ce mémoire était de développer et valider un modèle afin de détecter automatiquement les potentiels donneurs d’organes. Pour ce faire, les données cliniques de l’ensemble des patients adultes hospitalisés aux soins intensifs du CHUM entre 2012 et 2019 ont été utilisées. 103 valeurs de laboratoires temporelles différentes et 2 valeurs statiques ont été utilisées pour développer un modèle de réseaux de neurones convolutifs entrainé à prédire les potentiels donneurs d’organes. Ce modèle a été comparé à un modèle fréquentiste linéaire non temporel. Le modèle a par la suite été validé dans une population externe cliniquement distincte. Différentes stratégies ont été comparées pour peaufiner le modèle dans cette population externe et améliorer les performances. Un total de 19 463 patients, dont 397 donneurs potentiels, ont été utilisés pour développer le modèle et 4 669, dont 36 donneurs potentiels, ont été utilisés pour la validation externe. Le modèle démontrait une aire sous la courbe ROC (AUROC) de 0.966 (IC95% 0.9490.981), supérieure au modèle fréquentiste linéaire (AUROC de 0.940 IC95% 0.908-0.969, p=0.014). Le modèle était aussi supérieur dans certaines sous populations d’intérêt clinique. Dans le groupe de validation externe, l’AUROC du modèle de réseaux de neurones était de 0.820 (0.682-0.948) augmentant à 0.874 (0.731-0.974) à l’aide d’un ré-entrainement. Ce modèle prometteur a le potentiel de modifier et d’améliorer la détection des potentiels donneurs d’organes. D’autres étapes de validation prospectives et d’amélioration du modèle, notamment l’ajout de données spécifiques, sont nécessaires avant une utilisation clinique de routine. / The organ donation process, however crucial for many patients’ survival, is not enough to address the increasing demand. Its efficiency depends on potential organ donors’ identification by clinicians. This imperfect step misses between 30%–60% of potential organ donor. Improving that process is a moral and economic imperative. The main goal of this work was to address that liming step by developing and validating a predictive model that could automatically detect potential organ donors. The clinical data from all patients hospitalized, between 2012 and 2019 to the CHUM critical care units were extracted. The temporal evolution of 103 types of laboratory analysis and 2 static clinical data was used to develop and test a convolutive neural network (CNN), trained to predict potential organ donors. This model was compared to a non-temporal logistical model as a baseline. The CNN model was validated in a clinically distinct external population. To improve the performance in this external cohort, strategies to fine-tune the network were compared. 19 463 patients, including 397 potential organ donors, were used to create the model and 4 669 patients, including 36 potential organ donors, served as the external validation cohort. The CNN model performed better with an AUROC of 0.966 (IC95% 0.949-0.981), compared to the logistical model (AUROC de 0.940 IC95% 0.908-0.969, p=0.014). The CNN model was also superior in specific subpopulation of increased clinical interest. In the external validation cohort, the CNN model’s AUROC was 0.820 (0.682-0.948) and could be improved to 0.874 (0.731-0.974) after fine tuning. This promising model could change potential organ donors' detection for the better. More studies are however required to improve the model, by adding more types of data, and to validate prospectively the mode before routine clinical usage.
295

Deep networks training and generalization: insights from linearization

George, Thomas 01 1900 (has links)
Bien qu'ils soient capables de représenter des fonctions très complexes, les réseaux de neurones profonds sont entraînés à l'aide de variations autour de la descente de gradient, un algorithme qui est basé sur une simple linéarisation de la fonction de coût à chaque itération lors de l'entrainement. Dans cette thèse, nous soutenons qu'une approche prometteuse pour élaborer une théorie générale qui expliquerait la généralisation des réseaux de neurones, est de s'inspirer d'une analogie avec les modèles linéaires, en étudiant le développement de Taylor au premier ordre qui relie des pas dans l'espace des paramètres à des modifications dans l'espace des fonctions. Cette thèse par article comprend 3 articles ainsi qu'une bibliothèque logicielle. La bibliothèque NNGeometry (chapitre 3) sert de fil rouge à l'ensemble des projets, et introduit une Interface de Programmation Applicative (API) simple pour étudier la dynamique d'entrainement linéarisée de réseaux de neurones, en exploitant des méthodes récentes ainsi que de nouvelles accélérations algorithmiques. Dans l'article EKFAC (chapitre 4), nous proposons une approchée de la Matrice d'Information de Fisher (FIM), utilisée dans l'algorithme d'optimisation du gradient naturel. Dans l'article Lazy vs Hasty (chapitre 5), nous comparons la fonction obtenue par dynamique d'entrainement linéarisée (par exemple dans le régime limite du noyau tangent (NTK) à largeur infinie), au régime d'entrainement réel, en utilisant des groupes d'exemples classés selon différentes notions de difficulté. Dans l'article NTK alignment (chapitre 6), nous révélons un effet de régularisation implicite qui découle de l'alignement du NTK au noyau cible, au fur et à mesure que l'entrainement progresse. / Despite being able to represent very complex functions, deep artificial neural networks are trained using variants of the basic gradient descent algorithm, which relies on linearization of the loss at each iteration during training. In this thesis, we argue that a promising way to tackle the challenge of elaborating a comprehensive theory explaining generalization in deep networks, is to take advantage of an analogy with linear models, by studying the first order Taylor expansion that maps parameter space updates to function space progress. This thesis by publication is made of 3 papers and a software library. The library NNGeometry (chapter 3) serves as a common thread for all projects, and introduces a simple Application Programming Interface (API) to study the linearized training dynamics of deep networks using recent methods and contributed algorithmic accelerations. In the EKFAC paper (chapter 4), we propose an approximate to the Fisher Information Matrix (FIM), used in the natural gradient optimization algorithm. In the Lazy vs Hasty paper (chapter 5), we compare the function obtained while training using a linearized dynamics (e.g. in the infinite width Neural Tangent Kernel (NTK) limit regime), to the actual training regime, by means of examples grouped using different notions of difficulty. In the NTK alignment paper (chapter 6), we reveal an implicit regularization effect arising from the alignment of the NTK to the target kernel as training progresses.
296

Classification de pollens par réseau neuronal : application en reconstructions paléo-environnementales de populations marginales

Durand, Médéric 04 1900 (has links)
La hausse actuelle du climat pousse les espèces d’arbres tempérés à migrer vers le nord. En vue de comprendre comment certaines espèces réagiront face à cette migration, nous pouvons porter notre regard vers les populations marginales. Les études paléoécologiques de ces populations – situées au-delà de l’aire de répartition continue de l’espèce – peuvent nous informer quant aux conditions écologiques nécessaires à leur migration. Ce mémoire analyse un peuplement d’érables à sucre (Acer saccharum Marsh.) situé à la limite nordique de la répartition de l’espèce, dans la forêt tempérée mixte québécoise. L’objectif de la recherche est d’identifier quand et sous quelles conditions écologiques A. saccharum s’est établi en situation marginale. À ces fins, cette étude propose l’analyse des fossiles extraits des sédiments lacustres d’un lac situé à proximité de l’érablière. Un modèle d’apprentissage-machine est entraîné à l’aide d’images de pollens et permet la classification des pollens extraits des sédiments lacustres – le premier de la sorte. Notre méthode proposée emploi un protocole d’extraction fossile accéléré et des réseaux de neurone convolutifs permettant de classifier les pollens des espèces les plus retrouvées dans les sédiments quaternaires du nord-est de l’Amérique. Bien qu’encore incapable de classifier précisément toutes les espèces présentes dans une telle séquence fossile, notre modèle est une preuve de concept envers l’automatisation de la paléo-palynologie. Les résultats produits par le modèle combinés à l’analyse des charbons fossiles permettent la reconstruction de la végétation et des feux des 10,000 dernières années. L’établissement régional d’A. saccharum est daté à 4,800 cal. BP, durant une période de refroidissement climatique et de feux fréquents mais de faible sévérité. Sa présence locale est prudemment établie à 1,200 cal. BP. Les résultats de ce mémoire soulignent le potentiel de la paléo-palynologie automatique ainsi que la complexité de l’écologie d’A. saccharum. / The current global climate warming is pushing temperate tree species to migrate northwards. To understand how certain species will undergo this migration, we can look at marginal populations. The paleoecological studies of such populations, located beyond the species’ core distribution range, can inform us of the conditions needed for a successful migration. This research thesis analyses a sugar maple (Acer saccharum Marsh.) stand located at the northern boundary of the species’ limit, in Québec’s mixed-temperate forest. The objective of this research is to identify when and under which ecological conditions did A. saccharum establish itself as the stand’s dominant species. To that end, this study analyses the fossil record found in a neighbouring lake’s organic sediments. A machine learning-powered model is trained using pollen images to classify the lacustrine sediment’s pollen record. The first of its kind, our proposed method employs an accelerated fossil pollen extraction protocol and convolutional neural networks and can classify the species most commonly found in Northeastern American Quaternary fossil records. Although not yet capable of accurately classifying a complete fossil pollen sequence, our model serves as a proof of concept towards automation in paleo-palynology. Using results generated by our model combined with the analysis of the fossil charcoal record, the past 10,000 years of vegetation and fire history is reconstructed. The regional establishment of A. saccharum is conservatively dated at 4,800 cal. BP, during a period of climate cooling and frequent, although non-severe, forest fires. Its local presence can only be attested to since 1,200 cal. BP. This thesis’ results highlight both the potential of automated paleo-palynology and the complexity of A. saccharum’s ecological requirements.
297

Calibrated uncertainty estimation for SLAM

Bansal, Dishank 04 1900 (has links)
La focus de cette thèse de maîtrise est l’analyse de l’étalonnage de l’incertitude pour la lo- calisation et la cartographie simultanées (SLAM) en utilisant des modèles de mesure basés sur les réseaux de neurones. SLAM sont un problème fondamental en robotique et en vision par ordinateur, avec de nombreuses applications allant des voitures autonomes aux réalités augmentées. Au cœur de SLAM, il s’agit d’estimer la pose (c’est-à-dire la position et l’orien- tation) d’un robot ou d’une caméra lorsqu’elle se déplace dans un environnement inconnu et de construire simultanément une carte de l’environnement environnant. Le SLAM visuel, qui utilise des images en entrée, est un cadre de SLAM couramment utilisé. Cependant, les méthodes traditionnelles de SLAM visuel sont basées sur des caractéristiques fabriquées à la main et peuvent être vulnérables à des défis tels que la mauvaise luminosité et l’occultation. L’apprentissage profond est devenu une approche plus évolutive et robuste, avec les réseaux de neurones convolutionnels (CNN) devenant le système de perception de facto en robotique. Pour intégrer les méthodes basées sur les CNN aux systèmes de SLAM, il est nécessaire d’estimer l’incertitude ou le bruit dans les mesures de perception. L’apprentissage profond bayésien a fourni diverses méthodes pour estimer l’incertitude dans les réseaux de neurones, notamment les ensembles, la distribution sur les paramètres du réseau et l’ajout de têtes de prédiction pour les paramètres de distribution de la sortie. Cependant, il est également important de s’assurer que ces estimations d’incertitude sont bien étalonnées, c’est-à-dire qu’elles reflètent fidèlement l’erreur de prédiction. Dans cette thèse de maîtrise, nous abordons ce défi en développant un système de SLAM qui intègre un réseau de neurones en tant que modèle de mesure et des estimations d’in- certitude étalonnées. Nous montrons que ce système fonctionne mieux que les approches qui utilisent la méthode traditionnelle d’estimation de l’incertitude, où les estimations de l’incertitude sont simplement considérées comme des hyperparamètres qui sont réglés ma- nuellement. Nos résultats démontrent l’importance de tenir compte de manière précise de l’incertitude dans le problème de SLAM, en particulier lors de l’utilisation d’un réseau de neur. / The focus of this Masters thesis is the analysis of uncertainty calibration for Simultaneous Localization and Mapping (SLAM) using neural network-based measurement models. SLAM is a fundamental problem in robotics and computer vision, with numerous applications rang- ing from self-driving cars to augmented reality. At its core, SLAM involves estimating the pose (i.e., position and orientation) of a robot or camera as it moves through an unknown environment and constructing a map of the surrounding environment simultaneously. Vi- sual SLAM, which uses images as input, is a commonly used SLAM framework. However, traditional Visual SLAM methods rely on handcrafted features and can be vulnerable to challenges such as poor lighting and occlusion. Deep learning has emerged as a more scal- able and robust approach, with Convolutional Neural Networks (CNNs) becoming the de facto perception system in robotics. To integrate CNN-based methods with SLAM systems, it is necessary to estimate the uncertainty or noise in the perception measurements. Bayesian deep learning has provided various methods for estimating uncertainty in neural networks, including ensembles, distribu- tions over network parameters, and adding variance heads for direct uncertainty prediction. However, it is also essential to ensure that these uncertainty estimates are well-calibrated, i.e they accurately reflect the error in the prediction. In this Master’s thesis, we address this challenge by developing a system for SLAM that incorporates a neural network as the measurement model and calibrated uncertainty esti- mates. We show that this system performs better than the approaches which uses traditional uncertainty estimation method, where uncertainty estimates are just considered hyperpa- rameters which are tuned manually. Our results demonstrate the importance of accurately accounting for uncertainty in the SLAM problem, particularly when using a neural network as the measurement model, in order to achieve reliable and robust localization and mapping.
298

Apprentissage d'atlas cellulaires par la méthode de Factorized embeddings

Trofimov, Assya 02 1900 (has links)
Le corps humain contient plus de 3.72X10^13 cellules qui se distinguent par leur morphologie, fonction et état. Leur catalogage en atlas cellulaires c'est entamé il y a plus de 150 ans, avec l'invention des colorants cellulaires en microscopie. Notre connaissance des types cellulaires et leur phénotypes moléculaires nous permet de connaître et prédire leurs fonctions et patrons d'interactions. Ces connaissances sont à la base de la capacité à poser des diagnostics, créer des médicaments et même faire pousser des organes en biologie synthétique. Surprenamment, notre connaissance est loin d'être complète et c'est pourquoi la caractérisation systématique des cellules et l'assemblage des connaissances en atlas cellulaires est nécessaire. Le développement du séquençage à haut débit a révolutionné la biologie des systèmes et ce type de données est parfait pour la construction d'atlas cellulaires entièrement basés sur les données. Un tel atlas cellulaire contiendra une représentation des cellules par des vecteurs de nombres, où chaque vecteur encode le profil moléculaire capturant des informations biologiques de chaque cellule. Chaque expérience de séquençage d'ARN (RNA-Seq) produit des dizaines de milliers de mesures extrêmement riches en information dont l'analyse demeure non-triviale. Des algorithmes de réduction de dimensionnalité, entre autres, permettent d'extraire des données des patrons importants et encoder les échantillons dans des espaces plus interprétables. De cette manière, les cellules similaires sont groupés sur la base d'une multitude de mesures qu'offre le RNA-Seq. Nous avons donc créé un modèle, le Factorized Embedding (FE), qui permet d'organiser les données de séquençage d'ARN de la sorte. Le modèle apprend simultanément deux espaces d'encodage: un pour les échantillons et l'autre pour les gènes. Nous avons observé qu'une fois entraîné, que ce modèle groupe les échantillons sur la base de leur similarité d'expression génique et permet l'interpolation dans l'espace d'encodage et donc une certaine interprétabilité de l'espace d'encodage. Du côté de l'encodage des gènes, nous avons remarqué que les gènes se regroupaient selon leurs patrons de co-expression ainsi que selon des similarité de fonctions, trouvées via des ontologies de gènes (Gene Ontology, GO). Nous avons ensuite exploré les propriétés d'une modification du modèle FE, baptisée le Transcriptome Latent (TLT, de l'anglais The Latent Transcriptome), où l'encodage des gènes est remplacé par une fonction d'encodage de k-mers provenant de données brutes de RNA-Seq. Cette modification du modèle capture dans son espace d'encodage des séquence à la fois de l'information sur la similarité et l'abondance des séquences ADN. L'espace d'encodage a ainsi permis de détecter des anormalités génomiques tels les translocations, ainsi que des mutations spécifiques au patient, rendant cet espace de représentation utile autant pour la visualisation que pour l'analyse de données. Finalement, la dernière itération explorée dans cette thèse, du modèle FE, baptisée cette fois-ci le TCRome, encode des séquences TCR (récepteurs de cellules T) plutôt que des k-mers, venant du séquençage de répertoires immuns (TCR-Seq). Une irrégularité dans la performance du modèle a mené à une analyse des séquences plus approfondie et à la détection de deux sous-types de TCR. Nous avons analysé les répertoires TCR de plus de 1000 individus et rapportons que le répertoire TCR est composé de deux types de TCR ontogéniquement et fonctionellement distincts. Nous avons découvert des patrons distincts dans les abondances de l'un ou l'autre type, changeant en fonction du sexe, l'âge et dans le cadre de maladies telles chez les sujets portant des mutations dans le gène AIRE et dans le cadre de la maladie du greffon contre l'hôte (GVHD). Ces résultats pointent vers la nécessité d'utiliser des données de séquençage multi-modales pour la construction d'atlas cellulaires, c'est à dire en plus des séquence TCR, des données sur l'expression génique ainsi que des caractérisation moléculaires seront probablement utiles, mais leur intégration sera non-triviale. Le modèle FE (et ses modifications) est un bon candidat pour ce type d'encodage, vu sa flexibilité d'architecture et sa résilience aux données manquantes. / The human body contains over 3.72 x 10^13 cells, that distinguish themselves by their morphology, function and state. Their cataloguing into cell atlases has started over 150 years ago, with the invention of cellular stains for microscopy. Our knowledge of cell types and molecular phenotypes allows is to better know and predict their functions and interaction patterns. This knowledge is at the basis of the ability to diagnose disease, create drugs and even grow organs in synthetic biology. Surprisingly, our knowledge is far from complete and this is why a systematic characterization of cells and the assembly of cell atlases is important. The development of high throughput sequencing has revolutionized systems biology and this type of data is perfect for the construction of entirely data-driven cell atlases. Such an atlas will contain a representation of cells by vectors of numbers, where each vector encodes a molecular profile, capturing biological data about each cell. Each sequencing experiment yields tens of thousands of measurements, extremely rich in information, but their analysis remains non-trivial. Dimensionnality reduction algorithms allow to extract from the data important patterns and encode samples into interpretable spaces. This way, similar cells are grouped on the basis of a multitude of measurements that comes from high throughput sequencing. We have created a model, the Factorized Embedding (FE), that allows to organize RNA sequencing (RNA-Seq) data in such a way. The FE model learns simultaneously two encoding spaces: one for samples and one for genes. We have found that the model groups samples on the basis of similar gene expression and allows for smooth interpolation in the encoding space and thus some manner of interpretability. As for the gene encoding space, we observed that gene coordinates were grouped according to co-expression patterns as well as similarity in function, found via gene ontology (GO). We then explored a modification of the FE model, names The Latent Transcriptome (TLT), where the gene encoding function is replaced by a function encoding k-mers, calculated from raw RNA-Seq data. This modification of the model captured in the k-mer encoding space both sequence similarity and sequence abundance. The encoding space allowed for the detection of genomic abnormalities such as translocations, as well as patient-specific mutations, making the encoding space useful for both visualisation and data analysis. Finally, the last iteration of the FE model that we explored, called TCRome, encodes amino-acid TCR sequences rather than k-mers. An irregularity in the model's performance led us to discover two TCR subtypes, entirely based on their sequence. We have thus analyzed TCR repertoires of over 1000 individuals and report that the TCR repertoire is composed of two ontogenically and functionally distinct types. We have discovered distinct pattens in the abundances of each of the sub-types, changing with age, sex and in the context of some diseases such as in individuals carrying a mutated AIRE gene and in graft versus host disease (GVHD). Collectively, these results point towards the necessity to use multi-modal sequencing data for the construction of cell atlases, namely gene expression data, TCR sequencing data and possibly various molecular characterizations. The integration of all this data will however be non-trivial. The FE model (and its modifications) is a good candidate for this type of data organisation, namely because of its flexibility in architecture and resilience to missing data.
299

Caractérisation des amas de galaxies avec des méthodes d'apprentissage automatique

Sadikov, Maria 08 1900 (has links)
Les amas de galaxies sont les plus grandes structures gravitationnellement liées de l'Univers. Ils sont communément séparés en trois catégories, basées sur la distribution du gaz intra-amas. Ce gaz peut être très concentré vers le centre de l'amas, il peut être réparti dans l'amas de manière plutôt uniforme, ou encore il peut avoir une distribution légèrement piquée vers le centre dans un cas intermédiaire. Une autre distinction entre les trois catégories est l'interaction entre le trou noir supermassif se trouvant au centre de l'amas de galaxies et le gaz intra-amas environnant. Dans le cas de la première catégorie, lorsque le gaz est concentré au centre de l'amas, le trou noir est dit "actif". Il produit alors des jets, qui à leur tour injectent de l'énergie dans le gaz intra-amas sous forme d'ondes sonores, d'ondes de choc et de turbulence. Les amas de galaxies offrent donc une opportunité très intéressante pour étudier ce mécanisme d'échange d'énergie. Afin de mieux caractériser ces processus, il est essentiel d'avoir des méthodes robustes pour classifier les amas de galaxies selon les trois catégories. Il existe plusieurs propriétés pouvant être utilisées comme métriques de classification, mais celles-ci ne sont pas toujours en accord les unes avec les autres. Ces propriétés ont été étudiées pour des petits échantillons d'amas de galaxies, analysés de manière individuelle avec des méthodes traditionnelles. Cependant, avec le développement de puissants instruments d'observation tels que eROSITA, on s'attend à obtenir des échantillons contenant environ 100 000 amas de galaxies. Étant donné la taille de ces ensemble de données, il devient nécessaire d'avoir un moyen rapide, efficace et automatique pour les traiter. On a donc recours à l'apprentissage automatique pour accélérer l'analyse. Ce mémoire présente une analyse des propriétés du gaz intra-amas avec des méthodes d'apprentissage automatique. On se sert des simulations cosmologiques IllustrisTNG pour obtenir des images en rayons X d'amas de galaxies, à partir desquelles on construit notre ensemble de données. On s'intéresse à cinq propriétés du gaz intra-amas contenu dans les amas de galaxies, qui sont couramment utilisées comme métriques de classification: le temps de refroidissement central, la densité électronique centrale, l'excès d'entropie centrale, le paramètre de concentration de la brillance de surface et le paramètre de courbure du profil de densité. On explore les relations entre ces différentes métriques, puis on implémente un réseau de neurones qui vise à prédire leur valeur à partir d'une image en rayons X d'un amas de galaxies. Notre réseau atteint une pourcentage d'erreur moyen de 1.8% pour les prédictions de la métrique la plus performante, c'est-à-dire le temps de refroidissement central. Ensuite, afin d'estimer les incertitudes sur les résultats obtenus, on effectue une analyse probabiliste de nos prédictions à l'aide de la méthode de l'inférence sans vraisemblance. On utilise également une méthode de partitionnement de données qui rassemble les images en rayons-X en trois groupes distincts; on constate que ce regroupement corrèle fortement avec la division des mêmes images en utilisant le paramètre de concentration comme métrique de classification. L'ensemble de ce travail permet de conclure que le temps de refroidissement central et la concentration sont les métriques se prêtant le mieux à une analyse avec des méthodes d'apprentissage automatique, ainsi que de mettre en place les outils qui serviront à caractériser les futurs échantillons d'amas de galaxies. / Galaxy clusters are the largest gravitationally bound structures of the universe. They are commonly divided into three categories, based on the distribution of the intracluster gas. In one case, the gas is strongly concentrated towards the center of the cluster. In another case, it is rather uniformly dispersed through the cluster. In a third intermediate case, the distribution is slightly peaked towards the center. The three categories also differ by the interaction between the gas and the supermassive black hole located at the center of the cluster. In the first category, the black hole is said to be 'active' and it produces jets that heat up the intracluster gas through shock waves, sound waves and turbulence. The feedback mechanism from the black hole is not entirely understood, and galaxy clusters offer a valuable opportunity to study this energy transfer mechanism in more detail. Numerous properties can serve as classification metrics, but they are not always consistent with one another. Moreover, traditional methods used to extract those properties are time-consuming and have only been applied to small samples. With the advent of powerful X-ray observatories such as eROSITA, we expect to obtain large galaxy clusters datasets (~100 000). Given the size of the datasets and the number of parameters to consider, machine learning methods are needed to accelerate the data processing. This thesis presents an analysis of intracluster gas properties with machine learning techniques. We use the galaxy clusters from the IllustrisTNG cosmological simulations to create the X-ray images that make up our dataset. We study five properties of the hot gas in galaxy clusters that are commonly used as classification metrics; the central cooling time, the central electron density, the central entropy excess, the concentration of the surface brightness and the cuspiness parameter, which represents the slope of the density profile. We explore the correlations between the different metrics, and implement a neural network that predicts their values from an X-ray image of a galaxy cluster. The network achieves a mean percentage error of 1.8% on the central cooling time predictions, making it the best-performing metric. In order to get uncertainty estimates, we perform a probabilistic analysis of the network predictions using simulation-based inference. We also use a clustering approach that groups the X-ray images into three separate groups; we note that those groups are consistent with classification based on the concentration parameter. Our results show that the central cooling time and the concentration are the metrics that lend themselves the best to a machine learning analysis of galaxy cluster images. This project aims to lay the groundwork for characterizing future galaxy cluster observations.
300

Accélération du lentillage gravitationnel à plans multiples par apprentissage profond

Wilson, Charles 04 1900 (has links)
Le "modèle standard" actuel de la cosmologie est celui de ΛCDM, décrivant un Univers en expansion accélérée ainsi qu’une structure de matière sombre froide formée en halos, sur lesquels s’assemblent les galaxies. Malgré les nombreuses confirmations observationnelles de ses prédictions, il existe d’importantes tensions entre les mesures de la distribution de structure sombre aux petites échelles de l’Univers et ce qui serait attendu de ΛCDM. Cependant, ces halos légers de matière sombre, qui sont prédit d’abonder à travers le cosmos, n’hébergent pas de galaxies lumineuses et sont donc très difficiles à observer directement. Leur présence peut toutefois être détectée dans les lentilles gravitationnelles fortes de type galaxie-galaxie, un phénomène se produisant lorsque la lumière d’une galaxie d’arrière-plan est fortement déviée par le champ gravitationnel d’une galaxie d’avantplan, formant des images multiples et des arcs étendus. Les halos distribués en ligne de visée de tels systèmes, ainsi que ceux imbriqués dans la galaxie lentille, peuvent causer des perturbations gravitationnelles dans les images de galaxies lentillées. La détection de ces effets infimes dans des observations de lentilles gravitationnelles est faite par des méthodes statistiques Bayésiennes, qui nécéssitent des centaines de milliers de simulations de la contribution de ces perturbateurs à la déflexion de la lumière. Traditionnellement, la modélisation du lentillage par les halos en ligne de visée s’est faite avec le formalisme du lentillage à plans multiples, qui souffre d’une nature récursive peu efficace. De plus, il est prédit par le modèle ΛCDM que la majorité des systèmes de lentilles gravitationnelles comporteraient davantage de halos en ligne de visée que de sous-halos imbriqués dans la galaxie lentille, motivant une modélisation détaillée des effets de ligne de visée. Dans un contexte d’analyse Bayésienne, l’approche du lentillage à plans multiples représente une échelle de temps de plusieurs jours pour l’analyse d’un seul système. En considérant que des grands relevés du ciel comme ceux de l’Observatoire Vera Rubin et du télescope spatial Euclid sont projetés de découvrir des centaines de milliers de lentilles gravitationnelles, l’effort de contraindre la distribution de matière sombre aux petites échelles se voit confronté à ce qui pourrait être un insurmontable problème de temps de calcul. Dans ce mémoire, je présente le développement d’un nouveau formalisme de modélisation du lentillage gravitationnel par halos en ligne de visée accéléré par des réseaux de neurones, motivé par les lacunes du lentillage à plans multiples et l’importance scientifique de la modélisation de ces effets. Les architectures de ces réseaux, conçues dans le cadre de ce travail, sont basées sur le mécanisme d’attention, et peuvent être conditionnées sur des ensembles de modèles de halos en ligne de visée afin de produire les angles de déflexion leur étant associés. Ce formalisme offre la flexibilité requise pour remplacer celui du lentillage à plans multiples, laissant à l’usager la liberté de spécifier un modèle de lentille principale et étant compatible avec des grilles de pixels de taille quelconque. Notre formalisme permet d’accélérer la modélisation du lentillage de ligne de visée par presque deux ordres de grandeur lorsque comparé au lentillage à plans multiples, et promet d’atteindre une exactitude lui étant comparable dans des développements futurs. Il s’agit d’une contribution significative à l’étude de la matière sombre aux petites échelles, qui permettra soit de réconcilier ΛCDM et les observations, ou mènera à l’adoption d’un modèle cosmologique alternatif. / The current "standard model" of cosmology is that of ΛCDM, describing a Universe undergoing accelerated expansion with a structure of cold dark matter formed into halos, onto which are assembled galaxies. Despite the numerous observational confirmations of its predictions, there remains some important tensions between measures of the distribution of dark structure on small scales of the Universe and what would be expected from ΛCDM. However, these light dark matter halos, predicted to be adundant throughout the cosmos, are not hosts of luminous galaxies and are therefore very difficult to observe directly. Yet, their presence can still be detected in galaxy-galaxy type strong gravitational lenses, a phenomenon occuring when the light of a background galaxy is strongly deflected by the gravitational field of a foreground galaxy, forming multiple images and extended arcs. Halos distributed along the line-of-sight of such systems, as well as those nested within the lens galaxy, can introduce gravitational perturbations in images of lensed galaxies. The detection of such infinitesimal effects in strong lensing observations is made with methods relying on Bayesian statistics, which require hundreds of thousands of simulations of the contribution of these perturbers to the deflection of light. Traditionally, modeling the lensing from line-of-sight halos has been done with the multi-plane lensing framework, which suffers from its inefficient recursive nature. Morevoer, the ΛCDM model predicts that most gravitational lens systems would host a larger amount of line-of-sight halos than subhalos nested within the lens galaxy, motivating a detailed modeling of line-of-sight effects. In a Bayesian analysis context, the multi-plane lensing approach represents a timescale of multiple days for the analysis of a single system. Considering that large sky surveys such as those of the Vera Rubin Observatory and the Euclid space telescope are projected to discover hundreds of thousands of gravitational lenses, the effort of constraining the small-scale distribution of dark matter is confronted to what might seem like an insurmountable problem of computation time. In this thesis, I present the development of a new neural-network-accelerated framework for modeling the gravitational lensing by line-of-sight halos, motivated by the shortcomings of multiplane lensing and the scientific importance of modeling these effects. The architectures of these networks, conceived as part of this work, are based on the attention mechanism, and can be conditioned on sets of line-of-sight halo models in order to produce their associated deflection angles. This framework offers the flexibility required to replace that of multi-plane lensing, leaving up to the user the freedom to specify a main lens model and being compatible with pixel grids of any size. Our framework allows to accelerate the modeling of line-of-sight lensing by nearly two orders of magnitude relative to multi-plane lensing, and promises to reach a comparable accuracy in future developments. This constitutes a significative contribution to the study of dark matter on small scales, which will either lead to the reconciliation of ΛCDM and observations, or the adoption of an alternate cosmological model.

Page generated in 0.1135 seconds