• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 10
  • 7
  • 5
  • Tagged with
  • 21
  • 9
  • 8
  • 7
  • 7
  • 7
  • 7
  • 6
  • 6
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Reconnaissance en aveugle de codeur à base de code convolutif : Contribution à la mise en oeuvre d'un récepteur intelligent

Marazin, Mélanie 10 December 2009 (has links) (PDF)
Dans le but d'améliorer la qualité des transmissions numériques, les normes sont en perpétuelle évolution ce qui engendre des problèmes d'incompatibilité. Le domaine de la radio cognitive offre une solution pertinente à ce problème : la conception de récepteurs intelligents. Ces récepteurs devront être capables d'identifier en aveugle les paramètres de la norme utilisée par l'émetteur. Les travaux présentés dans ce mémoire portent sur la reconnaissance aveugle de codeur à base de code convolutif. De tels codes améliorent la fiabilité d'une transmission en permettant, côté récepteur, de détecter et/ou de corriger d'éventuelles erreurs intervenues lors de la transmission du message. Une étude sur la théorie algébrique des codes convolutifs a été conduite afin d'obtenir les propriétés indispensables à la mise en oeuvre de méthodes d'identification aveugle. Puis, à partir de la seule connaissance d'un train binaire codé, nous avons développé des méthodes permettant d'identifier un code convolutif lors d'une transmission non-bruitée, puis bruitée. Nous avons ensuite développé un algorithme dédié à l'identification en aveugle d'un code convolutif poinçonné. Cet algorithme permet, à partir de la seule connaissance d'une trame codée, poinçonnée et bruitée, d'identifier le code convolutif ainsi que le motif de poinçonnage utilisé à l'émission. Ensuite, nous proposons deux méthodes qui permettent d'identifier un turbocode lors de la réception d'une trame présentant une plage de donnée non-bruitée. Enfin, nous montrons que nos algorithmes d'identification offrent d'excellentes performances avec des paramètres de simulation proches de ceux utilisés dans les différents standards.
12

Nouvelle forme d'onde et récepteur avancé pour la télémesure des futurs lanceurs / New waveform and advanced receiver for new launchers telemetry

Piat-Durozoi, Charles-Ugo 27 November 2018 (has links)
Les modulations à phase continue (CPMs) sont des méthodes de modulations robuste à la noncohérence du canal de propagation. Dans un contexte spatial, les CPM sont utilisées dans la chaîne de transmission de télémesure de la fusée. Depuis les années 70, la modulation la plus usitée dans les systèmes de télémesures est la modulation CPFSK continuous phase frequency shift keying filtrée. Historiquement, ce type de modulation est concaténée avec un code ReedSolomon (RS) afin d'améliorer le processus de décodage. Côté récepteur, les séquences CPM non-cohérentes sont démodulées par un détecteur Viterbi à sortie dure et un décodeur RS. Néanmoins, le gain du code RS n'est pas aussi satisfaisant que des techniques de codage moderne capables d'atteindre la limite de Shannon. Actualiser la chaîne de communication avec des codes atteignant la limite de Shannon tels que les codes en graphe creux, implique deremanier l’architecture du récepteur usuel pour un détecteur à sortie souple. Ainsi, on propose dans cette étude d' élaborer un détecteur treillis à sortie souple pour démoduler les séquences CPM non-cohérentes. Dans un deuxième temps, on concevra des schémas de pré-codages améliorant le comportement asymptotique du récepteur non-cohérent et dans une dernière étape on élabora des codes de parité à faible densité (LDPC) approchant la limite de Shannon. / Continuous phase modulations (CPM) are modulation methods robust to the non-coherency of propagation channels. In a space context, CPMs are used in the communication link between the rocket and the base stations. Since the 70's, the most popular telemetry modulation is the filtered continuous phase frequency shift keying (CPFSK). Traditionally, the CPFSK scheme isconcatenated with a Reed-Solomon (RS) code to enhance the decoding process. At the receiver side, the non-coherent CPM sequences are demodulated through a hard Viterbi detector and a RS decoder. However, the RS's coding gain is no more satisfactory when directly compared to modern coding schemes enable to reach the Shannon limit. Updating the communication link to capacity achieving codes, as sparse graph codes, implies to redesign the receiver architecture to soft detector. In that respect, we propose in this study to design a trellis-based soft detector to demodulate non-coherent CPM sequences. In a second part, we will elaborate precoding schemes to improve the asymptotic behaviour of the non-coherent receiver and in a last step we will build low density parity check codes approaching the Shannon limit.
13

Deep learning compact and invariant image representations for instance retrieval / Représentations compactes et invariantes à l'aide de l'apprentissage profond pour la recherche d'images par similarité

Morère, Olivier André Luc 08 July 2016 (has links)
Nous avons précédemment mené une étude comparative entre les descripteurs FV et CNN dans le cadre de la recherche par similarité d’instance. Cette étude montre notamment que les descripteurs issus de CNN manquent d’invariance aux transformations comme les rotations ou changements d’échelle. Nous montrons dans un premier temps comment des réductions de dimension (“pooling”) appliquées sur la base de données d’images permettent de réduire fortement l’impact de ces problèmes. Certaines variantes préservent la dimensionnalité des descripteurs associés à une image, alors que d’autres l’augmentent, au prix du temps d’exécution des requêtes. Dans un second temps, nous proposons la réduction de dimension emboitée pour l’invariance (NIP), une méthode originale pour la production, à partir de descripteurs issus de CNN, de descripteurs globaux invariants à de multiples transformations. La méthode NIP est inspirée de la théorie pour l’invariance “i-theory”, une théorie mathématique proposée il y a peu pour le calcul de transformations invariantes à des groupes au sein de réseaux de neurones acycliques. Nous montrons que NIP permet d’obtenir des descripteurs globaux compacts (mais non binaires) et robustes aux rotations et aux changements d’échelle, que NIP est plus performants que les autres méthodes à dimensionnalité équivalente sur la plupart des bases de données d’images. Enfin, nous montrons que la combinaison de NIP avec la méthode de hachage RBMH proposée précédemment permet de produire des codes binaires à la fois compacts et invariants à plusieurs types de transformations. La méthode NIP+RBMH, évaluée sur des bases de données d’images de moyennes et grandes échelles, se révèle plus performante que l’état de l’art, en particulier dans le cas de descripteurs binaires de très petite taille (de 32 à 256 bits). / Image instance retrieval is the problem of finding an object instance present in a query image from a database of images. Also referred to as particular object retrieval, this problem typically entails determining with high precision whether the retrieved image contains the same object as the query image. Scale, rotation and orientation changes between query and database objects and background clutter pose significant challenges for this problem. State-of-the-art image instance retrieval pipelines consist of two major steps: first, a subset of images similar to the query are retrieved from the database, and second, Geometric Consistency Checks (GCC) are applied to select the relevant images from the subset with high precision. The first step is based on comparison of global image descriptors: high-dimensional vectors with up to tens of thousands of dimensions rep- resenting the image data. The second step is computationally highly complex and can only be applied to hundreds or thousands of images in practical applications. More discriminative global descriptors result in relevant images being more highly ranked, resulting in fewer images that need to be compared pairwise with GCC. As a result, better global descriptors are key to improving retrieval performance and have been the object of much recent interest. Furthermore, fast searches in large databases of millions or even billions of images requires the global descriptors to be compressed into compact representations. This thesis will focus on how to achieve extremely compact global descriptor representations for large-scale image instance retrieval. After introducing background concepts about supervised neural networks, Restricted Boltzmann Machine (RBM) and deep learning in Chapter 2, Chapter 3 will present the design principles and recent work for the Convolutional Neural Networks (CNN), which recently became the method of choice for large-scale image classification tasks. Next, an original multistage approach for the fusion of the output of multiple CNN is proposed. Submitted as part of the ILSVRC 2014 challenge, results show that this approach can significantly improve classification results. The promising perfor- mance of CNN is largely due to their capability to learn appropriate high-level visual representations from the data. Inspired by a stream of recent works showing that the representations learnt on one particular classification task can transfer well to other classification tasks, subsequent chapters will focus on the transferability of representa- tions learnt by CNN to image instance retrieval…
14

Représentations Convolutives Parcimonieuses -- application aux signaux physiologiques et interpétabilité de l'apprentissage profond / Convolutional Sparse Representations -- application to physiological signals and interpretability for Deep Learning

Moreau, Thomas 19 December 2017 (has links)
Les représentations convolutives extraient des motifs récurrents qui aident à comprendre la structure locale dans un jeu de signaux. Elles sont adaptées pour l’analyse des signaux physiologiques, qui nécessite des visualisations mettant en avant les informations pertinentes. Ces représentations sont aussi liées aux modèles d’apprentissage profond. Dans ce manuscrit, nous décrivons des avancées algorithmiques et théoriques autour de ces modèles. Nous montrons d’abord que l’Analyse du Spectre Singulier permet de calculer efficacement une représentation convolutive. Cette représentation est dense et nous décrivons une procédure automatisée pour la rendre plus interprétable. Nous proposons ensuite un algorithme asynchrone, pour accélérer le codage parcimonieux convolutif. Notre algorithme présente une accélération super-linéaire. Dans une seconde partie, nous analysons les liens entre représentations et réseaux de neurones. Nous proposons une étape d’apprentissage supplémentaire, appelée post-entraînement, qui permet d’améliorer les performances du réseau entraîné, en s’assurant que la dernière couche soit optimale. Puis nous étudions les mécanismes qui rendent possible l’accélération du codage parcimonieux avec des réseaux de neurones. Nous montrons que cela est lié à une factorisation de la matrice de Gram du dictionnaire. Finalement, nous illustrons l’intérêt de l’utilisation des représentations convolutives pour les signaux physiologiques. L’apprentissage de dictionnaire convolutif est utilisé pour résumer des signaux de marche et le mouvement du regard est soustrait de signaux oculométriques avec l’Analyse du Spectre Singulier. / Convolutional representations extract recurrent patterns which lead to the discovery of local structures in a set of signals. They are well suited to analyze physiological signals which requires interpretable representations in order to understand the relevant information. Moreover, these representations can be linked to deep learning models, as a way to bring interpretability intheir internal representations. In this disserta tion, we describe recent advances on both computational and theoretical aspects of these models.First, we show that the Singular Spectrum Analysis can be used to compute convolutional representations. This representation is dense and we describe an automatized procedure to improve its interpretability. Also, we propose an asynchronous algorithm, called DICOD, based on greedy coordinate descent, to solve convolutional sparse coding for long signals. Our algorithm has super-linear acceleration.In a second part, we focus on the link between representations and neural networks. An extra training step for deep learning, called post-training, is introduced to boost the performances of the trained network by making sure the last layer is optimal. Then, we study the mechanisms which allow to accelerate sparse coding algorithms with neural networks. We show that it is linked to afactorization of the Gram matrix of the dictionary.Finally, we illustrate the relevance of convolutional representations for physiological signals. Convolutional dictionary learning is used to summarize human walk signals and Singular Spectrum Analysis is used to remove the gaze movement in young infant’s oculometric recordings.
15

Rethinking continual learning approach and study out-of-distribution generalization algorithms

Laleh, Touraj 08 1900 (has links)
L'un des défis des systèmes d'apprentissage automatique actuels est que les paradigmes d'IA standard ne sont pas doués pour transférer (ou exploiter) les connaissances entre les tâches. Alors que de nombreux systèmes ont été formés et ont obtenu des performances élevées sur une distribution spécifique d'une tâche, il est pas facile de former des systèmes d'IA qui peuvent bien fonctionner sur un ensemble diversifié de tâches qui appartiennent aux différentes distributions. Ce problème a été abordé sous différents angles dans différents domaines, y compris l'apprentissage continu et la généralisation hors distribution. Si un système d'IA est formé sur un ensemble de tâches appartenant à différentes distributions, il pourrait oublier les connaissances acquises lors des tâches précédentes. En apprentissage continu, ce processus entraîne un oubli catastrophique qui est l'un des problèmes fondamentaux de ce domaine. La première projet de recherche dans cette thèse porte sur la comparaison d'un apprenant chaotique et d'un naïf configuration de l'apprentissage continu. La formation d'un modèle de réseau neuronal profond nécessite généralement plusieurs itérations, ou époques, sur l'ensemble de données d'apprentissage, pour mieux estimer les paramètres du modèle. La plupart des approches proposées pour ce problème tentent de compenser les effets de mises à jour des paramètres dans la configuration incrémentielle par lots dans laquelle le modèle de formation visite un grand nombre de échantillons pour plusieurs époques. Cependant, il n'est pas réaliste de s'attendre à ce que les données de formation soient toujours alimenté au modèle. Dans ce chapitre, nous proposons un apprenant de flux chaotique qui imite le chaotique comportement des neurones biologiques et ne met pas à jour les paramètres du réseau. De plus, il peut fonctionner avec moins d'échantillons par rapport aux modèles d'apprentissage en profondeur sur les configurations d'apprentissage par flux. Fait intéressant, nos expériences sur différents ensembles de données montrent que l'apprenant de flux chaotique a moins d'oubli catastrophique de par sa nature par rapport à un modèle CNN en continu apprentissage. Les modèles d'apprentissage en profondeur ont une performance de généralisation hors distribution naïve où la distribution des tests est inconnue et différente de la formation. Au cours des dernières années, il y a eu eu de nombreux projets de recherche pour comparer les algorithmes hors distribution, y compris la moyenne et méthodes basées sur les scores. Cependant, la plupart des méthodes proposées ne tiennent pas compte du niveau de difficulté de tâches. Le deuxième projet de recherche de cette thèse, l'analyse de certains éléments logiques et pratiques les forces et les inconvénients des méthodes existantes de comparaison et de classement hors distribution algorithmes. Nous proposons une nouvelle approche de classement pour définir les ratios de difficulté des tâches afin de comparer les algorithmes de généralisation hors distribution. Nous avons comparé la moyenne, basée sur le score, et des classements basés sur la difficulté de quatre tâches sélectionnées du benchmark WILDS et cinq algorithmes hors distribution populaires pour l'expérience. L'analyse montre d'importantes changements dans les ordres de classement par rapport aux approches de classement actuelles. / One of the challenges of current machine learning systems is that standard AI paradigms are not good at transferring (or leveraging) knowledge across tasks. While many systems have been trained and achieved high performance on a specific distribution of a task, it is not easy to train AI systems that can perform well on a diverse set of tasks that belong to different distributions. This problem has been addressed from different perspectives in different domains including continual learning and out-of-distribution generalization. If an AI system is trained on a set of tasks belonging to different distributions, it could forget the knowledge it acquired from previous tasks. In continual learning, this process results in catastrophic forgetting which is one of the core issues of this domain. The first research project in this thesis focuses on the comparison of a chaotic learner and a naive continual learning setup. Training a deep neural network model usually requires multiple iterations, or epochs, over the training data set, to better estimate the parameters of the model. Most proposed approaches for this issue try to compensate for the effects of parameter updates in the batch incremental setup in which the training model visits a lot of samples for several epochs. However, it is not realistic to expect training data will always be fed to the model. In this chapter, we propose a chaotic stream learner that mimics the chaotic behavior of biological neurons and does not update network parameters. In addition, it can work with fewer samples compared to deep learning models on stream learning setups. Interestingly, our experiments on different datasets show that the chaotic stream learner has less catastrophic forgetting by its nature in comparison to a CNN model in continual learning. Deep Learning models have a naive out-of-distribution~(OoD) generalization performance where the testing distribution is unknown and different from the training. In the last years, there have been many research projects to compare OoD algorithms, including average and score-based methods. However, most proposed methods do not consider the level of difficulty of tasks. The second research project in this thesis, analysis some logical and practical strengths and drawbacks of existing methods for comparing and ranking OoD algorithms. We propose a novel ranking approach to define the task difficulty ratios to compare OoD generalization algorithms. We compared the average, score-based, and difficulty-based rankings of four selected tasks from the WILDS benchmark and five popular OoD algorithms for the experiment. The analysis shows significant changes in the ranking orders compared with current ranking approaches.
16

Utilisation des signaux du cerveau (EEG) et vocaux pour la détection et le monitoring des facultés d'une personne

Ben Messaoud, Aymen January 2020 (has links) (PDF)
No description available.
17

Mesurer la masse de trous noirs supermassifs à l’aide de l’apprentissage automatique

Chemaly, David 07 1900 (has links)
Des percées récentes ont été faites dans l’étude des trous noirs supermassifs (SMBH), grâce en grande partie à l’équipe du télescope de l’horizon des évènements (EHT). Cependant, déterminer la masse de ces entités colossales à des décalages vers le rouge élevés reste un défi de taille pour les astronomes. Il existe diverses méthodes directes et indirectes pour mesurer la masse de SMBHs. La méthode directe la plus précise consiste à résoudre la cinématique du gaz moléculaire, un traceur froid, dans la sphère d’influence (SOI) du SMBH. La SOI est définie comme la région où le potentiel gravitationnel du SMBH domine sur celui de la galaxie hôte. Par contre, puisque la masse d’un SMBH est négligeable face à la masse d’une galaxie, la SOI est, d’un point de vue astronomique, très petite, typiquement de quelques dizaines de parsecs. Par conséquent, il faut une très haute résolution spatiale pour étudier la SOI d’un SMBH et pouvoir adéquatement mesurer sa masse. C’est cette nécessité d’une haute résolution spatiale qui limite la mesure de masse de SMBHs à de plus grandes distances. Pour briser cette barrière, il nous faut donc trouver une manière d’améliorer la résolution spatiale d’objets observés à un plus au décalage vers le rouge. Le phénomène des lentilles gravitationnelles fortes survient lorsqu’une source lumineuse en arrière-plan se trouve alignée avec un objet massif en avant-plan, le long de la ligne de visée d’un observateur. Cette disposition a pour conséquence de distordre l’image observée de la source en arrière-plan. Puisque cette distorsion est inconnue et non-linéaire, l’analyse de la source devient nettement plus complexe. Cependant, ce phénomène a également pour effet d’étirer, d’agrandir et d’amplifier l’image de la source, permettant ainsi de reconstituer la source avec une résolution spatiale considérablement améliorée, compte tenu de sa distance initiale par rapport à l’observateur. L’objectif de ce projet consiste à développer une chaîne de simulations visant à étudier la faisabilité de la mesure de la masse d’un trou noir supermassif (SMBH) par cinéma- tique du gaz moléculaire à un décalage vers le rouge plus élevé, en utilisant l’apprentissage automatique pour tirer parti du grossissement généré par la distorsion d’une forte lentille gravitationnelle. Pour ce faire, nous générons de manière réaliste des observations du gaz moléculaire obtenues par le Grand Réseau d’Antennes Millimétrique/Submillimétrique de l’Atacama (ALMA). Ces données sont produites à partir de la suite de simulations hydrody- namiques Rétroaction dans des Environnements Réalistes (FIRE). Dans chaque simulation, l’effet cinématique du SMBH est intégré, en supposant le gaz moléculaire virialisé. Ensuite, le flux d’émission du gaz moléculaire est calculé en fonction de sa vitesse, température, densité, fraction de H2, décalage vers le rouge et taille dans le ciel. Le cube ALMA est généré en tenant compte de la résolution spatiale et spectrale, qui dépendent du nombre d’antennes, de leur configuration et du temps d’exposition. Finalement, l’effet de la forte lentille gravi- tationnelle est introduit par la rétro-propagation du faisceau lumineux en fonction du profil de masse de l’ellipsoïde isotherme singulière (SIE). L’exploitation de ces données ALMA simulées est testée dans le cadre d’un problème de régression directe. Nous entraînons un réseau de neurones à convolution (CNN) à apprendre à prédire la masse d’un SMBH à partir des données simulées, sans prendre en compte l’effet de la lentille. Le réseau prédit la masse du SMBH ainsi que son incertitude, en supposant une distribution a posteriori gaussienne. Les résultats sont convaincants : plus la masse du SMBH est grande, plus la prédiction du réseau est précise et exacte. Tout comme avec les méthodes conventionnelles, le réseau est uniquement capable de prédire la masse du SMBH tant que la résolution spatiale des données permet de résoudre la SOI. De plus, les cartes de saillance du réseau confirment que celui-ci utilise l’information contenue dans la SOI pour prédire la masse du SMBH. Dans les travaux à venir, l’effet des lentilles gravitationnelles fortes sera introduit dans les données pour évaluer s’il devient possible de mesurer la masse de ces mêmes SMBHs, mais à un décalage vers le rouge plus élevé. / Recent breakthroughs have been made in the study of supermassive black holes (SMBHs), thanks largely to the Event Horizon Telescope (EHT) team. However, determining the mass of these colossal entities at high redshifts remains a major challenge for astronomers. There are various direct and indirect methods for measuring the mass of SMBHs. The most accurate direct method involves resolving the kinematics of the molecular gas, a cold tracer, in the SMBH’s sphere of influence (SOI). The SOI is defined as the region where the gravitational potential of the SMBH dominates that of the host galaxy. However, since the mass of a SMBH is negligible compared to the mass of a galaxy, the SOI is, from an astronomical point of view, very small, typically a few tens of parsecs. As a result, very high spatial resolution is required to study the SOI of a SMBH and adequately measure its mass. It is this need for high spatial resolution that limits mass measurements of SMBHs at larger distances. To break this barrier, we need to find a way to improve the spatial resolution of objects observed at higher redshifts. The phenomenon of strong gravitational lensing occurs when a light source in the back- ground is aligned with a massive object in the foreground, along an observer’s line of sight. This arrangement distorts the observed image of the background source. Since this distor- tion is unknown and non-linear, analysis of the source becomes considerably more complex. However, this phenomenon also has the effect of stretching, enlarging and amplifying the image of the source, enabling the source to be reconstructed with considerably improved spatial resolution, given its initial distance from the observer. The aim of this project is to develop a chain of simulations to study the feasibility of measuring the mass of a supermassive black hole (SMBH) by kinematics of molecular gas at higher redshift, using machine learning to take advantage of the magnification generated by the distortion of a strong gravitational lens. To this end, we realistically generate observations of molecular gas obtained by the Atacama Large Millimeter/Submillimeter Antenna Array (ALMA). These data are generated from the Feedback in Realistic Environments (FIRE) suite of hydrodynamic simulations. In each simulation, the kinematic effect of the SMBH is integrated, assuming virialized molecular gas. Next, the emission flux of the molecular gas is calculated as a function of its velocity, temperature, density, H2 fraction, redshift and sky size. The ALMA cube is generated taking into account spatial and spectral resolution, which depend on the number of antennas, their configuration and exposure time. Finally, the effect of strong gravitational lensing is introduced by back-propagating the light beam according to the mass profile of the singular isothermal ellipsoid (SIE). The exploitation of these simulated ALMA data is tested in a direct regression problem. We train a convolution neural network (CNN) to learn to predict the mass of an SMBH from the simulated data, without taking into account the effect of the lens. The network predicts the mass of the SMBH as well as its uncertainty, assuming a Gaussian a posteriori distribution. The results are convincing: the greater the mass of the SMBH, the more precise and accurate the network’s prediction. As with conventional methods, the network is only able to predict the mass of the SMBH as long as the spatial resolution of the data allows the SOI to be resolved. Furthermore, the network’s saliency maps confirm that it uses the information contained in the SOI to predict the mass of the SMBH. In future work, the effect of strong gravitational lensing will be introduced into the data to assess whether it becomes possible to measure the mass of these same SMBHs, but at a higher redshift.
18

Nouvelles observations et techniques d'apprentissage automatique appliquées aux galaxies et aux amas de galaxies

Rhea, Carter 10 1900 (has links)
Les amas de galaxies sont l'une des plus grandes structures dans l'univers et jouent le rôle d'hôte de plusieurs phénomènes complexes. Bien qu'il existe beaucoup d'études portant sur leur formation et leur évolution, l'avènement récent de l'apprentissage automatique en astronomie nous permet d'investiguer des questions qui, jusqu'à maintenant, demeuraient sans réponse. Même si ce mémoire se concentre sur l'application de techniques d'apprentissage automatique aux observations en rayons X des amas de galaxies, nous explorons l'usage de ces techniques à son homologue à une échelle réduite : les galaxies elles-mêmes. Malgré le fait que les trois articles présentés dans ce mémoire se concentrent sur différents aspects de la physique, sur de différentes échelles et sur de différentes techniques, ils forment une base d'études que je continuerai pendant mon doctorat : l'usage des nouvelles techniques pour investiguer la physique des régions galactiques et extragalactiques. Dans le premier article, nous introduisons les premières observations en rayons X d'un amas de galaxies lointain qui détient des attributs particuliers comme une formation stellaire hors pair (∽ 900 M⊙/an). Dans cet article, nous employons les techniques traditionnelles en astronomie rayons X pour déterminer si ce taux de formation stellaire est dû à un courant de refroidissement désinhibé. Puisque l'objet est très lointain (z=1.7), il faut faire nos calculs sans beaucoup de photons et il faut donc utiliser les indices par procuration. Nous déterminons que la galaxie centrale est séparée d'une distance de plus de 50 kpc du coeur froid de l'amas. À cause de cette séparation, le trou noir supermassif central n'est pas alimenté et il ne peut pas prévenir le courant de refroidissement. Ceci est le premier exemple d'un amas de galaxies où nous observons l'échec de la rétroaction d'un trou noir supermassif. De plus, ceci nous fournit un autre mécanisme qui peut créer la lumière intra-amas. Dans le deuxième article présenté ici, nous examinons l'émission rayons X provenant du milieu intra-amas extrêmement chaud des amas de galaxies. Nous développons une méthode compréhensive qui détermine le nombre de composantes thermiques sous-jacentes dans un spectre de plasma. Notre nouvelle technique est basée sur une combinaison d'algorithmes d'apprentissage automatique non supervisé (analyse de composantes principales) et d'apprentissage automatique supervisé (arbre aléatoire). Nous créons un ensemble de 100 000 observations synthétiques et réalistes de Chandra qui représentent le gaz chaud dans les amas de galaxies voisines. Après la réduction de notre ensemble d'entraînement à ses 25 composantes principales, nous entraînons notre classificateur afin qu'il puisse déterminer le nombre de composantes thermiques sous-jacentes. Une fois l'étape d'entraînement terminée et l'optimisation des hyperparamètres terminée, nous appliquons la méthodologie à l'amas de galaxies de Persée. En plus de créer une carte de l'amas qui indique le nombre de composantes thermiques nécessaires afin de modéliser précisément l'émission du gaz chaud, nous avons développé un ensemble d'outils numériques qui calculent les températures associées. Nos résultats sont en accord avec plus d'une décennie d'études sur l'amas de galaxies de Persée et nous indiquent qu'il faut utiliser plusieurs composantes thermiques pour modéliser le milieu intra-amas correctement. Le troisième article présenté dans ce mémoire emploie de nouveau l'apprentissage automatique pour résoudre une question précédemment sans réponse nécessaire pour la caractérisation précise de la cinématique de gaz chaud dans les galaxies. Nous avons construit un réseau de neurones convolutif qui estime la vitesse et l'élargissement des raies d'émission d'un spectre de galaxies en visible. Une fois construit, nous l'appliquons aux données synthétiques qui répliquent les observations réelles de SITELLE du programme SIGNALS. En utilisant notre réseau bien entraîné, nous caractérisons l'émission d'une cible de SIGNALS : la galaxie M33. Nos résultats indiquent que notre algorithme surpasse les méthodes standards et s'adapte bien aux procédures d'ajustement spectral. En outre, notre méthodologie augmente la vitesse des calculs par plus d'un ordre de grandeur. Bien que l'algorithme soit entraîné spécifiquement pour SITELLE, on peut faire de petites modifications pour l'utiliser avec des autres interféromètres tels que MUSE et ses futurs analogues dans la prochaine génération de télescopes. Notez que j'ai mené à titre de premier auteur deux des trois articles présentés dans ce mémoire et apporté des contributions majeures au troisième. Les trois articles ont déjà été acceptés pour publication ou ont déjà été soumis et révisés une fois. / Galaxy clusters are one of the largest structures in the universe and host several complex physical phenomena. Although a wealth of knowledge already exists on their formation and evolution, the recent advent of machine learning in the astronomical sciences has allowed us to probe questions heretofore unanswered. While this thesis does focus heavily on the application of machine learning techniques to X-ray observations of galaxy clusters, it takes the techniques applied there to galaxy cluster's smaller counterparts: the individual galaxies themselves. Although the three papers presented here focus on distinct physics, scales, and techniques, they all form a basis of studies that I will continue during my doctorate: using new techniques to probe the underlying physics of galactic and extragalactic regions. The first paper introduced is a study of a galaxy cluster near the beginning of the epoch of cluster formation exhibiting peculiar attributes such as an elevated stellar formation rate (∽ 900M⊙/yr). In this paper, we employ traditional techniques in X-ray astronomy to determine whether or not the prodigious formation rate is due to an uninhibited cooling core. Since the object is so distant (z=1.7), we must execute our calculations with relatively few photons and thus rely on proxy measures. We determine that there exists a strong cooling flow offset by over 50 kpc from the central galaxy. Because of this offset, the AGN is not fueled and thus fails to heat up the cooling flow. This is the first example of a galaxy cluster in which we observe the failure of AGN feedback. Additionally, this provides another mechanism for the creation of intracluster light. The second article presented here focuses on X-ray emission from the hot intra-cluster medium within the galaxy cluster. We develop a comprehensive method for determining the number of underlying thermal components in the plasma's spectra. Our novel technique relies on a combination of an unsupervised learning algorithm (principal component analysis) and a supervised learning algorithm (random forest classification). We create a set of 100,000 realistic mock Chandra observations of the hot X-ray emitting gas in nearby galaxy clusters. After reducing our synthetic training set to its 25 most important principal components, we trained a random forest classifier to distinguish between the number of underlying thermal components. After successful testing and hyperparameter optimization, we applied the methodology third paper featured in this thesis once again employs machine learning to solve a previously undetermined question necessary for the accurate characterization of the kinematics of the warm gas in galaxies. We constructed a convolutional neural network to estimate the velocity and broadening parameters from the optical spectra of emission-line nebula and applied it to synthetic data replicating real SITELLE observations from the SIGNALS program. With a trained and optimized network in hand, we apply our methodology to a target of the SIGNALS program: the galaxy M33. Our results indicate our algorithm out-performs previous methods and nicely complements spectral fitting procedures. Moreover, the methodology increases calculation speeds by more than an order of magnitude -- thus greatly reducing the time needed to determine the kinematic parameters. Although the algorithm was trained for SITELLE data, this method can be readily ported to other IFUs such as MUSE. I have led two of the papers presented in this memoire and made major contributions to the third. All three papers have been either accepted for publication or have already been submitted and revised once. to the Perseus Cluster. In addition to creating a map of the cluster indicating the number of thermal components required to accurately model the thermal emission, we developed a suite of analysis routines to determine the temperatures of the underlying components. Our results are in agreement with over a decade of studies on the Perseus cluster and indicate that multiple temperature components are required for the accurate study of its intracluster medium.
19

Apprentissage profond pour la description sémantique des traits visuels humains / Deep learning for semantic description of visual human traits

Antipov, Grigory 15 December 2017 (has links)
Les progrès récents des réseaux de neurones artificiels (plus connus sous le nom d'apprentissage profond) ont permis d'améliorer l’état de l’art dans plusieurs domaines de la vision par ordinateur. Dans cette thèse, nous étudions des techniques d'apprentissage profond dans le cadre de l’analyse du genre et de l’âge à partir du visage humain. En particulier, deux problèmes complémentaires sont considérés : (1) la prédiction du genre et de l’âge, et (2) la synthèse et l’édition du genre et de l’âge.D’abord, nous effectuons une étude détaillée qui permet d’établir une liste de principes pour la conception et l’apprentissage des réseaux de neurones convolutifs (CNNs) pour la classification du genre et l’estimation de l’âge. Ainsi, nous obtenons les CNNs les plus performants de l’état de l’art. De plus, ces modèles nous ont permis de remporter une compétition internationale sur l’estimation de l’âge apparent. Nos meilleurs CNNs obtiennent une précision moyenne de 98.7% pour la classification du genre et une erreur moyenne de 4.26 ans pour l’estimation de l’âge sur un corpus interne particulièrement difficile.Ensuite, afin d’adresser le problème de la synthèse et de l’édition d’images de visages, nous concevons un modèle nommé GA-cGAN : le premier réseau de neurones génératif adversaire (GAN) qui produit des visages synthétiques réalistes avec le genre et l’âge souhaités. Enfin, nous proposons une nouvelle méthode permettant d’employer GA-cGAN pour le changement du genre et de l’âge tout en préservant l’identité dans les images synthétiques. Cette méthode permet d'améliorer la précision d’un logiciel sur étagère de vérification faciale en présence d’écarts d’âges importants. / The recent progress in artificial neural networks (rebranded as deep learning) has significantly boosted the state-of-the-art in numerous domains of computer vision. In this PhD study, we explore how deep learning techniques can help in the analysis of gender and age from a human face. In particular, two complementary problem settings are considered: (1) gender/age prediction from given face images, and (2) synthesis and editing of human faces with the required gender/age attributes.Firstly, we conduct a comprehensive study which results in an empirical formulation of a set of principles for optimal design and training of gender recognition and age estimation Convolutional Neural Networks (CNNs). As a result, we obtain the state-of-the-art CNNs for gender/age prediction according to the three most popular benchmarks, and win an international competition on apparent age estimation. On a very challenging internal dataset, our best models reach 98.7% of gender classification accuracy and an average age estimation error of 4.26 years.In order to address the problem of synthesis and editing of human faces, we design and train GA-cGAN, the first Generative Adversarial Network (GAN) which can generate synthetic faces of high visual fidelity within required gender and age categories. Moreover, we propose a novel method which allows employing GA-cGAN for gender swapping and aging/rejuvenation without losing the original identity in synthetic faces. Finally, in order to show the practical interest of the designed face editing method, we apply it to improve the accuracy of an off-the-shelf face verification software in a cross-age evaluation scenario.
20

PatchUp : a feature-space block-level regularization technique for convolutional neural networks

Faramarzi, Mojtaba 07 1900 (has links)
Les modèles d’apprentissage profond à large capacité ont souvent tendance à présenter de hauts écarts de généralisation lorsqu’ils sont entrainés avec une quantité limitée de données étiquetées. Dans ce cas, des réseaux de neurones très profonds et larges auront tendance à mémoriser les échantillons de données et donc ils risquent d’être vulnérables lors d’un léger décalage dans la distribution des données au moment de tester. Ce problème produit une généralisation pauvre lors de changements dans la répartition des données au moment du test. Pour surmonter ce problème, certaines méthodes basées sur la dépendance et l’indépendance de données ont été proposées. Une récente classe de méthodes efficaces pour aborder ce problème utilise plusieurs manières de contruire un nouvel échantillon d’entrainement, en mixant une paire (ou plusieurs) échantillons d’entrainement. Dans cette thèse, nous introduisons PatchUp, une régularisation de l’espace des caractéristiques au niveau des blocs dépendant des données qui opère dans l’espace caché en masquant des blocs contigus parmi les caractéristiques mappées, sélectionnés parmi une paire aléatoire d’échantillons, puis en mixant (Soft PatchUp) ou en échangeant (Hard PatchUp) les blocs contigus sélectionnés. Notre méthode de régularisation n’ajoute pas de surcharge de calcul significative au CNN pendant l’entrainement du modèle. Notre approche améliore la robustesse des modèles CNN face au problème d’intrusion du collecteur qui pourrait apparaitre dans d’autres approches de mixage telles que Mixup et CutMix. De plus, vu que nous mixons des blocs contigus de caractéristiques dans l’espace caché, qui a plus de dimensions que l’espace d’entrée, nous obtenons des échantillons plus diversifiés pour entrainer vers différentes dimensions. Nos expériences sur les ensembles de données CIFAR-10, CIFAR-100, SVHN et Tiny-ImageNet avec des architectures ResNet telles que PreActResnet18, PreActResnet34, WideResnet-28-10, ResNet101 et ResNet152 montrent que PatchUp dépasse ou égalise les performances de méthodes de régularisation pour CNN considérée comme état de l’art actuel. Nous montrons aussi que PatchUp peut fournir une meilleure généralisation pour des transformations affines d’échantillons et est plus robuste face à des attaques d’exemples contradictoires. PatchUp aide aussi les modèles CNN à produire une plus grande variété de caractéristiques dans les blocs résiduels en comparaison avec les méthodes de pointe de régularisation pour CNN telles que Mixup, Cutout, CutMix, ManifoldMixup et Puzzle Mix. Mots clés: Apprentissage en profondeur, Réseau Neuronal Convolutif, Généralisation,Régularisation, Techniques de régularisation dépendantes et indépendantes des données, Robustesse aux attaques adverses. / Large capacity deep learning models are often prone to a high generalization gap when trained with a limited amount of labeled training data. And, in this case, very deep and wide networks have a tendency to memorize the samples, and therefore they might be vulnerable under a slight distribution shift at testing time. This problem yields poor generalization for data outside of the training data distribution. To overcome this issue some data-dependent and data-independent methods have been proposed. A recent class of successful methods to address this problem uses various ways to construct a new training sample by mixing a pair (or more) of training samples. In this thesis, we introduce PatchUp, a feature-space block-level data-dependent regularization that operates in the hidden space by masking out contiguous blocks of the feature map of a random pair of samples, and then either mixes (Soft PatchUp) or swaps (Hard PatchUp) these selected contiguous blocks. Our regularization method does not incur significant computational overhead for CNNs during training. Our approach improves the robustness of CNN models against the manifold intrusion problem that may occur in other state-of-the-art mixing approaches like Mixup and CutMix. Moreover, since we are mixing the contiguous block of features in the hidden space, which has more dimensions than the input space, we obtain more diverse samples for training towards different dimensions. Our experiments on CIFAR-10, CIFAR-100, SVHN, and Tiny-ImageNet datasets using ResNet architectures including PreActResnet18, PreActResnet34, WideResnet-28-10, ResNet101, and ResNet152 models show that PatchUp improves upon, or equals, the performance of current state-of-the-art regularizers for CNNs. We also show that PatchUp can provide a better generalization to affine transformations of samples and is more robust against adversarial attacks. PatchUp also helps a CNN model to produce a wider variety of features in the residual blocks compared to other state-of-the-art regularization methods for CNNs such as Mixup, Cutout, CutMix, ManifoldMixup, and Puzzle Mix. Key words: Deep Learning, Convolutional Neural Network, Generalization, Regular-ization, Data-dependent and Data-independent Regularization Techniques, Robustness to Adversarial Attacks.

Page generated in 0.0476 seconds