Spelling suggestions: "subject:"apprentissage profond"" "subject:"apprentissage geofond""
31 |
Approches d'apprentissage pour la classification à large échelle d'images de télédétection / Learning approaches for large-scale remote sensing image classificationMaggiori, Emmanuel 22 June 2017 (has links)
L’analyse des images satellite et aériennes figure parmi les sujets fondamentaux du domaine de la télédétection. Ces dernières années, les avancées technologiques ont permis d’augmenter la disponibilité à large échelle des images, en comprenant parfois de larges étendues de terre à haute résolution spatiale. En plus des questions évidentes de complexité calculatoire qui en surgissent, un de plus importants défis est l’énorme variabilité des objets dans les différentes régions de la terre. Pour aborder cela, il est nécessaire de concevoir des méthodes de classification qui dépassent l’analyse du spectre individuel de chaque pixel, en introduisant de l’information contextuelle de haut niveau. Dans cette thèse, nous proposons d’abord une méthode pour la classification avec des contraintes de forme, basée sur l’optimisation d’une structure de subdivision hiérarchique des images. Nous explorons ensuite l’utilisation des réseaux de neurones convolutionnels (CNN), qui nous permettent d’apprendre des descripteurs hiérarchiques profonds. Nous étudions les CNN depuis de nombreux points de vue, ce qui nous permettra de les adapter à notre objectif. Parmi les sujets abordés, nous proposons différentes solutions pour générer des cartes de classification à haute résolution et nous étudions aussi la récolte des données d’entrainement. Nous avons également créé une base de données d’images aériennes sur des zones variées, pour évaluer la capacité de généralisation des CNN. Finalement, nous proposons une méthode pour polygonaliser les cartes de classification issues des réseaux de neurones, afin de pouvoir les intégrer dans des systèmes d’information géographique. Au long de la thèse, nous conduisons des expériences sur des images hyperspectrales, satellites et aériennes, toujours avec l’intention de proposer des méthodes applicables, généralisables et qui passent à l’échelle. / The analysis of airborne and satellite images is one of the core subjects in remote sensing. In recent years, technological developments have facilitated the availability of large-scale sources of data, which cover significant extents of the earth’s surface, often at impressive spatial resolutions. In addition to the evident computational complexity issues that arise, one of the current challenges is to handle the variability in the appearance of the objects across different geographic regions. For this, it is necessary to design classification methods that go beyond the analysis of individual pixel spectra, introducing higher-level contextual information in the process. In this thesis, we first propose a method to perform classification with shape priors, based on the optimization of a hierarchical subdivision data structure. We then delve into the use of the increasingly popular convolutional neural networks (CNNs) to learn deep hierarchical contextual features. We investigate CNNs from multiple angles, in order to address the different points required to adapt them to our problem. Among other subjects, we propose different solutions to output high-resolution classification maps and we study the acquisition of training data. We also created a dataset of aerial images over dissimilar locations, and assess the generalization capabilities of CNNs. Finally, we propose a technique to polygonize the output classification maps, so as to integrate them into operational geographic information systems, thus completing the typical processing pipeline observed in a wide number of applications. Throughout this thesis, we experiment on hyperspectral, atellite and aerial images, with scalability, generalization and applicability goals in mind.
|
32 |
Apprentissage de représentations et robotique développementale : quelques apports de l'apprentissage profond pour la robotique autonome / Representation learning and developmental robotics : on the use of deep learning for autonomous robotsDroniou, Alain 09 March 2015 (has links)
Afin de pouvoir évoluer de manière autonome et sûre dans leur environnement, les robots doivent être capables d'en construire un modèle fiable et pertinent. Pour des tâches variées dans des environnements complexes, il est difficile de prévoir de manière exhaustive les capacités nécessaires au robot. Il est alors intéressant de doter les robots de mécanismes d'apprentissage leur donnant la possibilité de construire eux-mêmes des représentations adaptées à leur environnement. Se posent alors deux questions : quelle doit être la nature des représentations utilisées et par quels mécanismes peuvent-elles être apprises ? Nous proposons pour cela l'utilisation de l'hypothèse des sous-variétés afin de développer des architectures permettant de faire émerger une représentation symbolique de flux sensorimoteurs bruts. Nous montrons que le paradigme de l'apprentissage profond fournit des mécanismes appropriés à l'apprentissage autonome de telles représentations. Nous démontrons que l'exploitation de la nature multimodale des flux sensorimoteurs permet d'en obtenir une représentation symbolique pertinente. Dans un second temps, nous étudions le problème de l'évolution temporelle des stimuli. Nous discutons les défauts de la plupart des approches aujourd'hui utilisées et nous esquissons une approche à partir de laquelle nous approfondissons deux sous-problèmes. Dans une troisième partie, nous proposons des pistes de recherche pour permettre le passage des expériences de laboratoire à des environnements naturels. Nous explorons plus particulièrement la problématique de la curiosité artificielle dans des réseaux de neurones non supervisés. / This thesis studies the use of deep neural networks to learn high level representations from raw inputs on robots, based on the "manifold hypothesis".
|
33 |
Apprentissage de nouvelles représentations pour la sémantisation de nuages de points 3D / Learning new representations for 3D point cloud semantic segmentationThomas, Hugues 19 November 2019 (has links)
Aujourd’hui, de nouvelles technologies permettent l’acquisition de scènes 3D volumineuses et précises sous la forme de nuages de points. Les nouvelles applications ouvertes par ces technologies, comme les véhicules autonomes ou la maintenance d'infrastructure, reposent sur un traitement efficace des nuages de points à grande échelle. Les méthodes d'apprentissage profond par convolution ne peuvent pas être utilisées directement avec des nuages de points. Dans le cas des images, les filtres convolutifs ont permis l’apprentissage de nouvelles représentations, jusqu’alors construites « à la main » dans les méthodes de vision par ordinateur plus anciennes. En suivant le même raisonnement, nous présentons dans cette thèse une étude des représentations construites « à la main » utilisées pour le traitement des nuages de points. Nous proposons ainsi plusieurs contributions, qui serviront de base à la conception d’une nouvelle représentation convolutive pour le traitement des nuages de points. Parmi elles, une nouvelle définition de voisinages sphériques multi-échelles, une comparaison avec les k plus proches voisins multi-échelles, une nouvelle stratégie d'apprentissage actif, la segmentation sémantique des nuages de points à grande échelle, et une étude de l'influence de la densité dans les représentations multi-échelles. En se basant sur ces contributions, nous introduisons la « Kernel Point Convolution » (KPConv), qui utilise des voisinages sphériques et un noyau défini par des points. Ces points jouent le même rôle que les pixels du noyau des convolutions en image. Nos réseaux convolutionnels surpassent les approches de segmentation sémantique de l’état de l’art dans presque toutes les situations. En plus de ces résultats probants, nous avons conçu KPConv avec une grande flexibilité et une version déformable. Pour conclure notre réflexion, nous proposons plusieurs éclairages sur les représentations que notre méthode est capable d'apprendre. / In the recent years, new technologies have allowed the acquisition of large and precise 3D scenes as point clouds. They have opened up new applications like self-driving vehicles or infrastructure monitoring that rely on efficient large scale point cloud processing. Convolutional deep learning methods cannot be directly used with point clouds. In the case of images, convolutional filters brought the ability to learn new representations, which were previously hand-crafted in older computer vision methods. Following the same line of thought, we present in this thesis a study of hand-crafted representations previously used for point cloud processing. We propose several contributions, to serve as basis for the design of a new convolutional representation for point cloud processing. They include a new definition of multiscale radius neighborhood, a comparison with multiscale k-nearest neighbors, a new active learning strategy, the semantic segmentation of large scale point clouds, and a study of the influence of density in multiscale representations. Following these contributions, we introduce the Kernel Point Convolution (KPConv), which uses radius neighborhoods and a set of kernel points to play the role of the kernel pixels in image convolution. Our convolutional networks outperform state-of-the-art semantic segmentation approaches in almost any situation. In addition to these strong results, we designed KPConv with a great flexibility and a deformable version. To conclude our argumentation, we propose several insights on the representations that our method is able to learn.
|
34 |
Multi-scale computational rhythm analysis : a framework for sections, downbeats, beats, and microtiming / Analyse numérique multi-échelle du rythme musical : un cadre unifié pour les sections, premiers temps, temps et microtimingFuentes, Magdalena 12 November 2019 (has links)
La modélisation computationnelle du rythme a pour objet l'extraction et le traitement d’informations rythmiques à partir d’un signal audio de musique. Cela s'avère être une tâche extrêmement complexe car, pour traiter un enregistrement audio réel, il faut pouvoir gérer sa complexité acoustique et sémantique à plusieurs niveaux de représentation. Les méthodes d’analyse rythmique existantes se concentrent généralement sur l'un de ces aspects à la fois et n’exploitent pas la richesse de la structure musicale, ce qui compromet la cohérence musicale des estimations automatiques. Dans ce travail, nous proposons de nouvelles approches tirant parti des informations multi-échelles pour l'analyse automatique du rythme. Nos modèles prennent en compte des interdépendances intrinsèques aux signaux audio de musique, en permettant ainsi l’interaction entre différentes échelles de temps et en assurant la cohérence musicale entre elles. En particulier, nous effectuons une analyse systématique des systèmes de l’état de l’art pour la détection des premiers temps, ce qui nous conduit à nous tourner vers des architectures convolutionnelles et récurrentes qui exploitent la modélisation acoustique à court et long terme; nous introduisons un modèle de champ aléatoire conditionnel à saut de chaîne pour la détection des premiers temps. Ce système est conçu pour tirer parti des informations de structure musicale (c'est-à-dire des répétitions de sections musicales) dans un cadre unifié. Nous proposons également un modèle linguistique pour la détection conjointe des temps et du micro-timing dans la musique afro-latino-américaine. Nos méthodes sont systématiquement évaluées sur diverses bases de données, allant de la musique occidentale à des genres plus spécifiques culturellement, et comparés à des systèmes de l’état de l’art, ainsi qu’à des variantes plus simples. Les résultats globaux montrent que nos modèles d’estimation des premiers temps sont aussi performants que ceux de l’état de l'art, tout en étant plus cohérents sur le plan musical. De plus, notre modèle d’estimation conjointe des temps et du microtiming représente une avancée vers des systèmes plus interprétables. Les méthodes présentées ici offrent des alternatives nouvelles et plus holistiques pour l'analyse numérique du rythme, ouvrant des perspectives vers une analyse automatique plus complète de la musique. / Computational rhythm analysis deals with extracting and processing meaningful rhythmical information from musical audio. It proves to be a highly complex task, since dealing with real audio recordings requires the ability to handle its acoustic and semantic complexity at multiple levels of representation. Existing methods for rhythmic analysis typically focus on one of those levels, failing to exploit music’s rich structure and compromising the musical consistency of automatic estimations. In this work, we propose novel approaches for leveraging multi-scale information for computational rhythm analysis. Our models account for interrelated dependencies that musical audio naturally conveys, allowing the interplay between different time scales and accounting for music coherence across them. In particular, we conduct a systematic analysis of downbeat tracking systems, leading to convolutional-recurrent architectures that exploit short and long term acoustic modeling; we introduce a skip-chain conditional random field model for downbeat tracking designed to take advantage of music structure information (i.e. music sections repetitions) in a unified framework; and we propose a language model for joint tracking of beats and micro-timing in Afro-Latin American music. Our methods are systematically evaluated on a diverse group of datasets, ranging from Western music to more culturally specific genres, and compared to state-of-the-art systems and simpler variations. The overall results show that our models for downbeat tracking perform on par with the state of the art, while being more musically consistent. Moreover, our model for the joint estimation of beats and microtiming takes further steps towards more interpretable systems. The methods presented here offer novel and more holistic alternatives for computational rhythm analysis, towards a more comprehensive automatic analysis of music.
|
35 |
Apprentissage de graphes structuré et parcimonieux dans des données de haute dimension avec applications à l’imagerie cérébrale / Structured Sparse Learning on Graphs in High-Dimensional Data with Applications to NeuroImagingBelilovsky, Eugene 02 March 2018 (has links)
Cette thèse présente de nouvelles méthodes d’apprentissage structuré et parcimonieux sur les graphes, ce qui permet de résoudre une large variété de problèmes d’imagerie cérébrale, ainsi que d’autres problèmes en haute dimension avec peu d’échantillon. La première partie de cette thèse propose des relaxation convexe de pénalité discrète et combinatoriale impliquant de la parcimonie et bounded total variation d’un graphe, ainsi que la bounded `2. Ceux-ci sont dévelopé dansle but d’apprendre un modèle linéaire interprétable et on démontre son efficacacité sur des données d’imageries cérébrales ainsi que sur les problèmes de reconstructions parcimonieux.Les sections successives de cette thèse traite de la découverte de structure sur des modèles graphiques “undirected” construit à partir de peu de données. En particulier, on se concentre sur des hypothèses de parcimonie et autres hypothèses de structures dans les modèles graphiques gaussiens. Deux contributions s’en dégagent. On construit une approche pour identifier les différentes entre des modèles graphiques gaussiens (GGMs) qui partagent la même structure sous-jacente. On dérive la distribution de différences de paramètres sous une pénalité jointe quand la différence des paramètres est parcimonieuse. On montre ensuite comment cette approche peut être utilisée pour obtenir des intervalles de confiances sur les différences prises par le GGM sur les arêtes. De là, on introduit un nouvel algorithme d’apprentissage lié au problème de découverte de structure sur les modèles graphiques non dirigées des échantillons observés. On démontre que les réseaux de neurones peuvent être utilisés pour apprendre des estimateurs efficacaces de ce problèmes. On montre empiriquement que ces méthodes sont une alternatives flexible et performantes par rapport aux techniques existantes. / This dissertation presents novel structured sparse learning methods on graphs that address commonly found problems in the analysis of neuroimaging data as well as other high dimensional data with few samples. The first part of the thesis proposes convex relaxations of discrete and combinatorial penalties involving sparsity and bounded total variation on a graph as well as bounded `2 norm. These are developed with the aim of learning an interpretable predictive linear model and we demonstrate their effectiveness on neuroimaging data as well as a sparse image recovery problem.The subsequent parts of the thesis considers structure discovery of undirected graphical models from few observational data. In particular we focus on invoking sparsity and other structured assumptions in Gaussian Graphical Models (GGMs). To this end we make two contributions. We show an approach to identify differences in Gaussian Graphical Models (GGMs) known to have similar structure. We derive the distribution of parameter differences under a joint penalty when parameters are known to be sparse in the difference. We then show how this approach can be used to obtain confidence intervals on edge differences in GGMs. We then introduce a novel learning based approach to the problem structure discovery of undirected graphical models from observational data. We demonstrate how neural networks can be used to learn effective estimators for this problem. This is empirically shown to be flexible and efficient alternatives to existing techniques.
|
36 |
Learning from electrophysiology time series during sleep : from scoring to event detection / Apprentissage à partir de séries temporelles d'électrophysiologie pendant le sommeil : de l'annotation manuelle à la détection automatique d'évènementsChambon, Stanislas 14 December 2018 (has links)
Le sommeil est un phénomène biologique universel complexe et encore peu compris. La méthode de référence actuelle pour caractériser les états de vigilance au cours du sommeil est la polysomnographie (PSG) qui enregistre de manière non invasive à la surface de la peau, les modifications électrophysiologiques de l’activité cérébrale (électroencéphalographie, EEG), oculaire (électro-oculographie, EOG) et musculaire (électromyographie, EMG). Traditionnellement, les signaux électrophysiologiques sont ensuite analysés par un expert du sommeil qui annote manuellement les évènements d’intérêt comme les stades de sommeil ou certains micro-évènements (grapho éléments EEG). Toutefois, l’annotation manuelle est chronophage et sujette à la subjectivité de l’expert. De plus, le développement exponentiel d’outils de monitoring du sommeil enregistrant et analysant automatiquement les signaux électrophysiologiques tels que le bandeau Dreem rend nécessaire une automatisation de ces tâches.L’apprentissage machine bénéficie d’une attention croissante car il permet d’apprendre à un ordinateur à réaliser certaines tâches de décision à partir d’un ensemble d’exemples d’apprentissage et d’obtenir des performances de prédictions plus élevées qu’avec les méthodes classiques. Les avancées techniques dans le domaine de l’apprentissage profond ont ouvert de nouvelles perspectives pour la science du sommeil tout en soulevant de nouveaux défis techniques. L’entraînement des algorithmes d’apprentissage profond nécessite une grande quantité de données annotées qui n’est pas nécessairement disponible pour les données PSG. De plus, les algorithmes d’apprentissage sont très sensibles à la variabilité des données qui est non négligeable en ce qui concerne ces données. Cela s’explique par la variabilité intra et inter-sujet (pathologies / sujets sains, âge…).Cette thèse étudie le développement d’algorithmes d’apprentissage profond afin de réaliser deux types de tâches: la prédiction des stades de sommeil et la détection de micro-événements. Une attention particulière est portée (a) sur la quantité de données annotées requise pour l’entraînement des algorithmes proposés et (b) sur la sensibilité de ces algorithmes à la variabilité des données. Des stratégies spécifiques, basées sur l’apprentissage par transfert, sont proposées pour résoudre les problèmes techniques dus au manque de données annotées et à la variabilité des données. / Sleep is a complex and not fully understood biological phenomenon. The traditional process to monitor sleep relies on the polysomnography exam (PSG). It records, in a non invasive fashion at the level of the skin, electrophysiological modifications of the brain activity (electroencephalography, EEG), ocular (electro-oculography, EOG) and muscular (electro-myography, EMG). The recorded signals are then analyzed by a sleep expert who manually annotates the events of interest such as the sleep stages or some micro-events. However, manual labeling is time-consuming and prone to the expert subjectivity. Furthermore, the development of sleep monitoring consumer wearable devices which record and process automatically electrophysiological signals, such as Dreem headband, requires to automate some labeling tasks.Machine learning (ML) has received much attention as a way to teach a computer to perform some decision tasks automatically from a set of learning examples. Furthermore, the rise of deep learning (DL) algorithms in several fields have opened new perspectives for sleep sciences. On the other hand, this is also raising new concerns related to the scarcity of labeled data that may prevent their training processes and the variability of data that may hurt their performances. Indeed, sleep data is scarce due to the labeling burden and exhibits also some intra and inter-subject variability (due to sleep disorders, aging...).This thesis has investigated and proposed ML algorithms to automate the detection of sleep related events from raw PSG time series. Through the prism of DL, it addressed two main tasks: sleep stage classification and micro-event detection. A particular attention was brought (a) to the quantity of labeled data required to train such algorithms and (b) to the generalization performances of these algorithms to new (variable) data. Specific strategies, based on transfer learning, were designed to cope with the issues related to the scarcity of labeled data and the variability of data.
|
37 |
Deep learning algorithms for database-driven peptide searchZumer, Jeremie 09 1900 (has links)
Modern proteomics – the large-scale analysis of proteins (Graves and Haystead, 2002) – relies heavily on the analysis of complex raw experimental, time series-like data. In a typical shotgun mass spectrometry workflow where the goal is to identify proteins in solution, a complex protein mixture is prepared, digested, fractionated for example by mass range, ionized and injected into a mass spectrometer, resulting in a so-called mass spectrum which, in tandem mass spectrometry, achieves obtain amino acid-resolution signals for the detected peptides. The spectrum must be cleaned up to become suitable for further analysis, then the peaks defined by the m/z to intensity values in the spectrum can be matched to some expected peak sequence from a set of candidate peptides (which are often simply in silico digests from the source specie’s proteome), which is the process of peptide identification proper. In this work, we select and solve some current limitations in the computational side of peptide identification research. We first introduce a new, research-oriented search engine. A major question at the boundary of current proteomics research is the integration and viability of new deep learning-driven algorithms for identification. Very little work has been done on this topic so far, with Prosit (Gessulat et al., 2019) being the only such software to see integration in an existing search engine, as far as we are aware (although rescoring algorithms like Percolator (Käll et al., 2007), which typically use more classical machine learning algorithms, have been in routine use for a while by now, they are merely applied as a postprocessing step and not integrated in the engine per se). To investigate this, we develop and present a new deep learning algorithm that performs peptide length prediction from a spectrum (a first, as far as we are aware). We compute metrics based on this prediction that we use during rescoring, and demonstrate consistently improved peptide identifications. Moreover, we propose a new full spectrum prediction algorithm (in line with PredFull (Liu et al., 2020) rather than Prosit) and a novel, random forest-based rescoring algorithm and paradigm, which we integrate within our search engine. Altogether, the deep learning tools we propose show an increase of over 20% in peptide identification rates at a 1% false discovery rate (FDR) threshold. These results provide strong evidence that deep learning-based tools proposed for proteomics can greatly improve peptide identifications. / La protéomique moderne – l’analyse à grande échelle des protéines (Graves and Haystead,
2002) - dépend fortement de l’analyse de données expérimentales de série chronologique
complexes. Dans un flux de travail typique de spectrométrie de masse en shotgun, où l’objectif
est d’identifier les protéines en solution, un mélange complexe de protéines est préparé, digéré,
fractionné par exemple par catégorie de masse ou par hydrophobicité, ionisé et injecté dans
un spectromètre de masse, ce qui donne ce que l’on appel un spectre de masse. Dans le
mode de spectrométrie de masse en tandem, il représente des signaux à la résolution des
acides aminés sur les peptides présentes. Le spectre doit être nettoyé pour se prêter à une
analyse plus approfondie, puis les pics définis par les couples de valeurs m/z et d’intensité
dans le spectre peuvent être mis en correspondance avec une séquence de pics attendue selon
la séquence hypothétique du peptide présent dans le spectre (qui sont souvent obtenus par
digestions in-silico du protéome de l’espèce source) ; il s’agit du processus d’identification des
peptides proprement dit.
Dans ce travail, nous sélectionnons et résolvons certaines limitations actuelles spécifiques
au côté informatique de la recherche sur l’identification des peptides. Nous introduisons
d’abord un nouveau moteur d’identification axé sur la recherche. Une question majeure à
la frontière actuelle en protéomique est l’intégration et la viabilité de nouveaux algorithmes
basés sur l’apprentissage profond dans un contexte d’identification. Très peu de travail a été
effectué sur ce sujet jusqu’à présent, Prosit (Gessulat et al., 2019) étant le seul logiciel de
ce type à voir l’intégration dans un moteur de recherche préexistant, au meilleures de nos
connaissances (bien que des algorithmes de rescoring comme Percolator (Käll et al., 2007) ,
qui utilisent généralement des algorithmes d’apprentissage automatique plus classiques, sont
habituellement utilisés depuis un certain temps maintenant, ils sont simplement appliqués
comme étape de post-traitement et non intégrés dans le moteur). Pour étudier ce problème,
nous développons et présentons un nouvel algorithme d’apprentissage en profondeur qui effectue
la prédiction de la longueur des peptides à partir d’un spectre (le premier algorithme
de ce type), et calculons des métriques basées sur cette prédiction. Nous utilisons l’algorithme
résultant pour démontrer des identifications de peptides constamment améliorées après intégration
dans notre engin. De plus, nous proposons un nouvel algorithme de prédiction de
5
spectres complets (conforme à PredFull (Liu et al., 2020) plutôt qu’à Prosit) ainsi qu’un
nouvel algorithme et paradigme de rescoring basé sur la forêt aléatoire, que nous intégrons
encore à notre moteur de recherche. En somme, les outils d’apprentissage en profondeur
que nous proposons démontrent une amélioration de plus de 20% des taux d’identification
de peptides à un seuil de taux de fausse découverte (FDR) de 1%. Ces résultats suggèrent
pour la première fois que les algorithmes d’apprentissage profonds proposés en protéomique
peuvent en effet largement améliorer les identifications.
|
38 |
Patient record representation learning from pharmaceutical dataDesmarais-de Grandpré, Guillaume 10 January 2025 (has links)
Ce mémoire aborde la problématique de l'apprentissage de représentations des patients à partir des dossiers de santé électroniques, en mettant l'accent sur les données pharmaceutiques. L'objectif de cette recherche est de développer un modèle robuste basé sur les réseaux de neurones récurrents à mémoire *Long Short-Term Memory* (LSTM), afin d'exploiter les historiques pharmaceutiques et les attributs sociodémographiques pour apprendre des représentations des patients. Cette étude s'appuie sur les données de l'Institut National de Santé Publique du Québec (INSPQ). Nous avons élaboré une méthodologie de prétraitement rigoureuse pour structurer chronologiquement les services pharmaceutiques, les attributs sociodémographiques et les résultats médicaux, ce qui s'avérait essentiel vu la nature extrêmement multidimensionnelle et éparse de notre jeu de données. Notre modèle LSTM modifié, inspiré du modèle de « Représentations Basées sur les Modèles de Langage Clinique » (CLMBR) (Steinberg et al. [2021]), est conçu pour capturer les schémas temporels et intégrer les facteurs sociodémographiques, afin d'améliorer la compréhension des trajectoires de santé des patients. Les résultats expérimentaux que nous obtenons indiquent que nos modifications apportées au modèle CLMBR et l'inclusion des attributs sociodémographiques ont le potentiel d'améliorer l'apprentissage de représentations utiles et significatives de dossiers de patients. Ceci confirme l'importance des facteurs sociaux dans les prédictions de santé. Nous abordons également les considérations éthiques telles que la confidentialité des données des patients, les biais potentiels du modèle et la nécessité de systèmes d'IA transparents. Ce mémoire démontre le potentiel des modèles basés sur les LSTM pour l'apprentissage des représentations des patients et la modélisation prédictive. Nos conclusions ont des implications cliniques significatives. Elles pourraient permettre une meilleure allocation des ressources médicales, favoriser l'élaboration de plans de traitement personnalisés, et améliorer globalement la prise en charge des patients. / This thesis tackles the challenge of patient representation learning using electronic health records (EHRs), with a particular focus on pharmaceutical data. The research aims to develop a robust Long Short-Term Memory (LSTM) model that leverages pharmaceutical histories and socio-demographic attributes to learn deep patient representations using the extensive dataset from the *Institut National de Santé Publique du Québec* (INSPQ). We create a meticulous preprocessing methodology to structure pharmaceutical services, sociodemographic attributes, and medical outcomes chronologically, addressing the high-dimensional and sparse nature of EHR data. Our modified LSTM model, inspired by the Clinical Language Model-Based Representations (CLMBR) (Steinberg et al. [2021]), is tailored to capture temporal patterns and incorporate socio-demographic factors, enhancing the understanding of patient health trajectories. The experimental results we obtain indicate that the modifications to the LSTM model and the inclusion of socio-demographic attributes have significant potential in improving meaningful patient representation learning, highlighting the importance of social determinants in health predictions. We also address ethical considerations such as patient data privacy, model biases, and the need for transparent AI systems. This thesis demonstrates the potential of LSTM-based models in transforming patient representation learning and predictive modelling. Our findings have significant clinical implications. They could enable better medical resource allocation, allow for personalized treatment plans, and improve patient care overall.
|
39 |
Développement de méthodes d'apprentissage profond pour l'aide au diagnostic du cancer par spectrométrie de masseSeddiki, Khawla 20 November 2023 (has links)
Thèse ou mémoire avec insertion d'articles / La spectrométrie de masse est devenue ces dernières années une technologie incontournable dans l'analyse à large échelle des composés cellulaires. En recherche clinique, les études qui utilisent cette technologie sont de plus en plus répandues. Ces études visent principalement deux objectifs. Le premier est le diagnostic de maladies qui passe par la classification d'échantillons provenant de différents états expérimentaux. Le deuxième objectif est l'identification de signatures des maladies étudiées qui passe par la mise en évidence de biomarqueurs. Cependant, la grande dimensionnalité, la présence de bruit et la complexité des données liées à ce type d'analyse nécessitent le développement d'outils computationnels performants. La récente émergence d'algorithmes d'apprentissage automatique a révolutionné de nombreux domaines de recherche y compris le diagnostic et l'identification de biomarqueurs. Néanmoins, ces algorithmes ne permettent pas toujours d'obtenir des résultats satisfaisants car ils nécessitent au préalable des étapes fastidieuses de prétraitement et de sélection d'attributs. Tandis que les algorithmes d'apprentissage profond et plus particulièrement les réseaux de neurones ont la capacité d'extraire automatiquement les caractéristiques pertinentes à partir de données brutes. Cette thèse vise à concevoir des algorithmes à base de réseaux de neurones pour le diagnostic du cancer et l'identification de biomarqueurs à partir de données protéomiques et métabolomiques. Ce travail est présenté sous la forme de trois contributions. La première, nommée apprentissage cumulatif, est une nouvelle méthodologie à base de réseaux de neurones convolutifs développée pour le diagnostic dans un contexte de rareté de données. La deuxième contribution est une nouvelle méthodologie à base de réseaux de neurones récurrents développée pour le diagnostic précoce. Ces deux méthodologies ont été comparées à des approches d'apprentissage automatique traditionnellement utilisées pour les données de spectrométrie de masse. Non seulement nos méthodologies ont été plus performantes que les approches traditionnelles. Elles ont eu également l'avantage d'être efficaces sur les données brutes et ont permis ainsi de s'affranchir des étapes coûteuses de prétraitement et de sélection d'attributs. De plus, elles ont eu un temps d'exécution de quelques secondes les rendant compatibles avec une analyse clinique rapide. Pour ce qui est de la troisième contribution, nommée SpectraLIME, elle consiste en une méthodologie d'interprétation des réseaux de neurones. Elle a identifié des régions spectrales d'intérêt contenant des biomarqueurs connus et des biomarqueurs candidats pouvant constituer de nouvelles cibles diagnostiques ou thérapeutiques. Nous avons pu démontrer tout au long de cette thèse la puissance des algorithmes d'apprentissage profond appliqués aux données omiques. Ce travail illustre l'intérêt de la spectrométrie de masse comme un outil puissant qui améliore remarquablement l'aide à la décision clinique. / In recent years, mass spectrometry has become an essential technology for large-scale analysis of cellular compounds. In clinical research, studies using this technology are becoming moreand more widespread. These studies have two main objectives. First, the diagnosis of diseases through the classification of samples from different experimental conditions. The second objective is the identification of signatures of the studied diseases through the detection of biomarkers. However, the high dimensionality, the presence of noise and the complexity of the data related to this type of analysis require the development of powerful computational tools. The recent emergence of machine learning algorithms has revolutionized many research areas including diagnosis and biomarker identification. However, these algorithms do not always provide satisfactory results because they require tedious pre-processing and feature selection steps. While deep learning algorithms and more particularly neural networks have the ability to automatically extract relevant features from raw data. This thesis aims at designing neural network algorithms for cancer diagnosis and biomarkers identification from proteomic and metabolomic data. This work is presented in the form of three contributions. The first one, named cumulative learning, is a new methodology based on convolutional neural networks developed for diagnosis in a context of data scarcity. The second contribution is a new methodology based on recurrent neural networks developed for early diagnosis. These two methodologies were compared to machine learning approaches traditionally used for mass spectrometry data. Not only our methodologies outperformed traditional approaches, but they also had the advantage of being effective on raw data and thus avoided costly pre-processing and feature selection steps. Moreover, they had an execution time of a few seconds, making them compatible with rapid clinical analysis. The third contribution, named SpectraLIME, consists of a methodology of neural networks interpretability. It identified spectral regions of interest containing known biomarkers and candidate biomarkers that could constitute new diagnostic or therapeutic targets. Throughout this thesis, we were able to demonstrate the power of deep learning algorithms applied to omics data. This work illustrates the interest of mass spectrometry as a valuable tool that remarkably improves clinical decision support.
|
40 |
Développement d'outils d'IA pour évaluer l'état de douleur d'une sourisBonilla Villatoro, William Ricardo 06 May 2024 (has links)
Ce mémoire présente une méthodologie novatrice pour mesurer les niveaux de douleur chez la souris en utilisant des techniques d'interprétation des images par apprentissage profond. L'un des principaux défis rencontrés dans cette étude a été l'acquisition de données de haute qualité. Une fois les données de qualité obtenues, il a été possible d'entraîner des réseaux de neurones capables de mesurer les niveaux de douleur. Afin de relever ces défis, nous avons développé un système de capture et de traitement d'images spécifiquement conçu pour cette étude. Ce système permet l'acquisition d'images de haute résolution avec un éclairage ajustable, ainsi que le traitement presque en temps réel des images. Grâce à ce système, nous avons pu constituer une base de données, appelée *MGS_UL*, comprenant plus de 2000 images annotées. Ensuite, des algorithmes d'apprentissage profond sont exploités pour évaluer de manière fiable les niveaux de douleur chez les souris. Ces algorithmes ont été testés sur la base de données *MGS_UL* pour évaluer leur efficacité à mesurer les niveaux de douleur. Les résultats obtenus démontrent la viabilité de ces algorithmes d'apprentissage profond pour la mesure de la douleur chez les souris. Ils ouvrent également la voie à de nouvelles avancées dans ce domaine de recherche.
|
Page generated in 0.058 seconds