• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1
  • 1
  • Tagged with
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

La découverte de nouvelle physique à l'aide de la détection d'anomalies avec l'apprentissage automatique au Grand collisionneur de hadrons

Leissner-Martin, Julien 12 1900 (has links)
La physique des particules est une branche de la science qui est actuellement régie sous un ensemble de lois nommé le \textit{modèle standard} (MS). Il dicte notamment quelles particules existent et comment elles interagissent entre elles. Il permet de prédire toutes sortes de résultats qui sont constamment testés et confirmés par une multitude d'expériences, dont l'expérience ATLAS, au Grand Collisionneur de Hadrons (LHC). Toutefois, ce modèle hautement précis et juste ne peut décrire qu'environ 5\% de la matière de l'Univers et s'avère donc incomplet. Les scientifiques passent au peigne fin plusieurs études pour y retrouver de la nouvelle physique, mais en vain. \\ Les théoriciens ne sont pas en reste non plus, et ont concocté plusieurs théories pouvant être vues comme des extensions du modèle standard. Malheureusement, plus de dix ans après la découverte du boson de Higgs au LHC qui venait confirmer la théorie actuelle du MS, aucun signe de ces extensions n'a pu être trouvé. Nous proposons dans ce mémoire d'utiliser l'intelligence artificielle pour aider à trouver certains indices de nouvelle physique. \\ Pour ce faire, nous entraînerons des modèles d'apprentissage automatique \textit{(machine learning)} à reconnaître des signes de la nouvelle physique dans des données réelles ou simulées issues de collisions proton-proton au sein du détecteur ATLAS. Ce détecteur oeuvre au LHC, le plus grand collisionneur au monde, où nos données proviennent d'énergies de centre de masse de \mbox{13 TeV.} Nous utiliserons les quadrivecteurs des particules contenues dans les jets boostés à grand rayon, des amas collimatés de particules présents dans ATLAS, qui pourraient contenir cette fameuse nouvelle physique. Dans ce mémoire, nous tenterons entre autres de retrouver des signaux de quarks top ainsi que de particules hypothétiques issues d'un modèle avec un secteur étendu du boson de Higgs. \\ Actuellement, nos modèles sont capables de bien distinguer le signal du bruit de fond. Toutefois, les résultats sont corrélés à la masse des jets et toute tentative pour contrecarrer cette corrélation diminue de beaucoup la discrimination du signal et du bruit de fond. De plus, nous devrons améliorer le rejet du bruit de fond pour espérer retrouver de la nouvelle physique dans les données d'ATLAS. \\ \textbf{Mots-clés : physique des particules, LHC, Grand collisionneur de hadrons, ATLAS, CERN, intelligence artificielle, apprentissage automatique, réseau de neurones, auto-encodeur variationnel, anomalies, jet boosté, jet à grand rayon} / Particle physics is currently governed by a set of laws called the Standard Model. This model notably includes which particles exist and how they interact with one another. It also allows the prediction of many results which are constantly tested and confirmed by all kinds of experiments, like the ATLAS experiment at the Large Hadron Collider (LHC). However, this highly precise model can only describe 5\% of the Universe, so it is incomplete. Scientists across the globe analyzed all kinds of data to find new physics, but to no avail. \\ Theorists also aren't resting, and have concocted many new theories which can be seen as Standard Model extensions. Unfortunately, more than ten years after the discovery of the Higgs boson at LHC that confirmed the last bits of the Standard Model, no signs of these extensions have been found. In light of this, we propose to use artificial intelligence to help us find signs of new physics. \\ To perform this task, we will train machine learning models to recognize signs of new physics inside real or simulated data originating from proton-proton collisions in the ATLAS detector. This detector operates at LHC, the biggest particle collider in the world, where our data will come from center-of-mass energies of \mbox{13 TeV.} We will use four-vectors of particles contained within large radius and boosted jets, which are dense streams of particles present in ATLAS and where new physics might hide. In this dissertation, we will notably try to find signals of top quarks and hypothetical particles originating from a model with an extended Higgs boson sector. \\ Currently, our models are able to distinguish between signal and background noise. However, these results are heavily correlated to jet mass, and any attempt at diminishing this correlation yields worse discriminating power between signal and background. We will also need to improve the background rejection to hope find new physics in the ATLAS data. \\ \textbf{Keywords : particle physics, LHC, ATLAS, CERN, artificial intelligence, deep learning, neural network, variational autoencoder, anomaly, boosted jet, large radius jet}
2

Towards meaningful and data-efficient learning : exploring GAN losses, improving few-shot benchmarks, and multimodal video captioning

Huang, Gabriel 09 1900 (has links)
Ces dernières années, le domaine de l’apprentissage profond a connu des progrès énormes dans des applications allant de la génération d’images, détection d’objets, modélisation du langage à la réponse aux questions visuelles. Les approches classiques telles que l’apprentissage supervisé nécessitent de grandes quantités de données étiquetées et spécifiques à la tâches. Cependant, celles-ci sont parfois coûteuses, peu pratiques, ou trop longues à collecter. La modélisation efficace en données, qui comprend des techniques comme l’apprentissage few-shot (à partir de peu d’exemples) et l’apprentissage self-supervised (auto-supervisé), tentent de remédier au manque de données spécifiques à la tâche en exploitant de grandes quantités de données plus “générales”. Les progrès de l’apprentissage profond, et en particulier de l’apprentissage few-shot, s’appuient sur les benchmarks (suites d’évaluation), les métriques d’évaluation et les jeux de données, car ceux-ci sont utilisés pour tester et départager différentes méthodes sur des tâches précises, et identifier l’état de l’art. Cependant, du fait qu’il s’agit de versions idéalisées de la tâche à résoudre, les benchmarks sont rarement équivalents à la tâche originelle, et peuvent avoir plusieurs limitations qui entravent leur rôle de sélection des directions de recherche les plus prometteuses. De plus, la définition de métriques d’évaluation pertinentes peut être difficile, en particulier dans le cas de sorties structurées et en haute dimension, telles que des images, de l’audio, de la parole ou encore du texte. Cette thèse discute des limites et des perspectives des benchmarks existants, des fonctions de coût (training losses) et des métriques d’évaluation (evaluation metrics), en mettant l’accent sur la modélisation générative - les Réseaux Antagonistes Génératifs (GANs) en particulier - et la modélisation efficace des données, qui comprend l’apprentissage few-shot et self-supervised. La première contribution est une discussion de la tâche de modélisation générative, suivie d’une exploration des propriétés théoriques et empiriques des fonctions de coût des GANs. La deuxième contribution est une discussion sur la limitation des few-shot classification benchmarks, certains ne nécessitant pas de généralisation à de nouvelles sémantiques de classe pour être résolus, et la proposition d’une méthode de base pour les résoudre sans étiquettes en phase de testing. La troisième contribution est une revue sur les méthodes few-shot et self-supervised de détection d’objets , qui souligne les limites et directions de recherche prometteuses. Enfin, la quatrième contribution est une méthode efficace en données pour la description de vidéo qui exploite des jeux de données texte et vidéo non supervisés. / In recent years, the field of deep learning has seen tremendous progress for applications ranging from image generation, object detection, language modeling, to visual question answering. Classic approaches such as supervised learning require large amounts of task-specific and labeled data, which may be too expensive, time-consuming, or impractical to collect. Data-efficient methods, such as few-shot and self-supervised learning, attempt to deal with the limited availability of task-specific data by leveraging large amounts of general data. Progress in deep learning, and in particular, few-shot learning, is largely driven by the relevant benchmarks, evaluation metrics, and datasets. They are used to test and compare different methods on a given task, and determine the state-of-the-art. However, due to being idealized versions of the task to solve, benchmarks are rarely equivalent to the original task, and can have several limitations which hinder their role of identifying the most promising research directions. Moreover, defining meaningful evaluation metrics can be challenging, especially in the case of high-dimensional and structured outputs, such as images, audio, speech, or text. This thesis discusses the limitations and perspectives of existing benchmarks, training losses, and evaluation metrics, with a focus on generative modeling—Generative Adversarial Networks (GANs) in particular—and data-efficient modeling, which includes few-shot and self-supervised learning. The first contribution is a discussion of the generative modeling task, followed by an exploration of theoretical and empirical properties of the GAN loss. The second contribution is a discussion of a limitation of few-shot classification benchmarks, which is that they may not require class semantic generalization to be solved, and the proposal of a baseline method for solving them without test-time labels. The third contribution is a survey of few-shot and self-supervised object detection, which points out the limitations and promising future research for the field. Finally, the fourth contribution is a data-efficient method for video captioning, which leverages unsupervised text and video datasets, and explores several multimodal pretraining strategies.

Page generated in 0.1051 seconds