• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 27
  • 10
  • Tagged with
  • 37
  • 37
  • 37
  • 11
  • 11
  • 10
  • 10
  • 9
  • 8
  • 8
  • 8
  • 8
  • 7
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Robust parallel-gripper grasp getection using convolutional neural networks

Gariépy, Alexandre 06 February 2020 (has links)
La saisie d’objet est une tâche fondamentale du domaine de la robotique. Des avancées dans ce domaine sont nécessaires au déploiement de robots domestiques ou pour l’automatisation des entrepôts par exemple. Par contre, seulement quelques approches sont capables d’effectuer la détection de points de saisie en temps réel. Dans cet optique, nous présentons une architecture de réseau de neurones à une seule passe nommée Réseau à Transformation Spatiale de Qualité de Saisie, ou encore Grasp Quality Spatial Transformer Network (GQ-STN) en anglais. Se basant sur le Spatial Transformer Network (STN), notre réseau produit non seulement une configuration de saisie mais il produit également une image de profondeur centrée sur cette configuration. Nous connectons notre architecture à un réseau pré-entraîné qui évalue une métrique de robustesse de saisie. Ainsi, nous pouvons entraîner efficacement notre réseau à satisfaire cette métrique de robustesse en utilisant la propagation arrière du gradient provenant du réseau d’évaluation. De plus, ceci nous permet de facilement entraîner le réseau sur des jeux de données contenant peu d’annotations, ce qui est un problème commun en saisie d’objet. Nous proposons également d’utiliser le réseau d’évaluation de robustesse pour comparer différentes approches, ce qui est plus fiable que la métrique d’évaluation par rectangle, la métrique traditionnelle. Notre GQ-STN est capable de détecter des configurations de saisie robustes sur des images de profondeur de jeu de données Dex-Net 2.0 à une précision de 92.4 % en une seule passe du réseau. Finalement, nous démontrons dans une expérience sur un montage physique que notre méthode peut proposer des configurations de saisie robustes plus souvent que les techniques précédentes par échantillonage aléatoire, tout en étant plus de 60 fois plus rapide. / Grasping is a fundamental robotic task needed for the deployment of household robots or furthering warehouse automation. However, few approaches are able to perform grasp detection in real time (frame rate). To this effect, we present Grasp Quality Spatial Transformer Network (GQ-STN), a one-shot grasp detection network. Being based on the Spatial Transformer Network (STN), it produces not only a grasp configuration, but also directly outputs a depth image centered at this configuration. By connecting our architecture to an externally-trained grasp robustness evaluation network, we can train efficiently to satisfy a robustness metric via the backpropagation of the gradient emanating from the evaluation network. This removes the difficulty of training detection networks on sparsely annotated databases, a common issue in grasping. We further propose to use this robustness classifier to compare approaches, being more reliable than the traditional rectangle metric. Our GQ-STN is able to detect robust grasps on the depth images of the Dex-Net 2.0 dataset with 92.4 % accuracy in a single pass of the network. We finally demonstrate in a physical benchmark that our method can propose robust grasps more often than previous sampling-based methods, while being more than 60 times faster.
12

Representation learning for few-shot image classification

Afrasiyabi, Arman 20 July 2022 (has links)
En tant qu'algorithmes d'apprentissage automatique à la pointe de la technologie, les réseaux de neurones profonds nécessitent de nombreux exemples pour bien fonctionner sur une tâche d'apprentissage. La collecte et l'annotation de multiples échantillons nécessitent un travail humain important et c'est même impossible dans la plupart des problèmes du monde réel tel que l'analyse de données biomédicales. Dans le contexte de la vision par ordinateur, la classification d'images à quelques plans vise à saisir la capacité humaine à apprendre de nouveaux concepts avec peu de supervision. À cet égard, l'idée générale est de transférer les connaissances des catégories de base avec plus d'encadrement vers des classes nouvelles avec peu d'exemples. En particulier, les approches actuelles d'apprentissage à quelques coups pré entraînent un modèle sur les classes de base disponible pour généraliser aux nouvelles classes, peut-être avec un réglage fin. Cependant, la généralisation du modèle actuel est limitée en raison de certaines hypothèses lors de la préformation et de restrictions lors de l'étape de mise au point. Cette thèse vise à assouplir trois hypothèses des modèles d'apprentissage à quelques plans actuels et nous proposons un apprentissage de représentation pour la classification d'images à quelques plans. Tout d'abord, le gel d'un modèle préformé semble inévitable dans la phase de réglage fin en raison de la forte possibilité de surentraînement sur quelques exemples. Malheureusement, l'apprentissage par transfert avec une hypothèse de modèle gelé limite la capacité du modèle puisque le modèle n'est pas mis à jour avec aucune connaissance des nouvelles classes. Contrairement au gel d'un modèle, nous proposons un alignement associatif qui permet d'affiner et de mettre à jour le réseau sur de nouvelles catégories. Plus précisément, nous présentons deux stratégies qui détectent et alignent les nouvelles classes sur les catégories de base hautement liées. Alors que la première stratégie pousse la distribution des nouvelles classes au centre de leurs catégories de base associées, la seconde stratégie effectue une correspondance de distribution à l'aide d'un algorithme d'entraînement contradictoire. Dans l'ensemble, notre alignement associatif vise à éviter le surentraînement et à augmenter la capacité du modèle en affinant le modèle à l'aide de nouveaux exemples et d'échantillons de base associés. Deuxièmement, les approches actuelles d'apprentissage à quelques coups effectuent le transfert de connaissances vers de nouvelles classes distinctes sous l'hypothèse uni modale, où tous les exemples d'une seule classe sont représentés par un seul cluster. Au lieu de cela, nous proposons une approche d'apprentissage de l'espace des caractéristiques basée sur le mélange (MixtFSL) pour déduire une représentation multimodale. Alors qu'un précédent travail basé sur un modèle de mélange d'Allen et al. citeallen2019infinite est basé sur une méthode de clusters classique de manière non différentielle, notre MixtFSL est un nouveau modèle multimodale de bout en bout et entièrement différentielle. MixtFSL capture la multimodale des classes de base sans aucun algorithme de clusters classique à l'aide d'un cadre en deux étapes. La première phase s'appeler formation initiale et vise à apprendre la représentation préliminaire du mélange avec une paire de fonctions de perte. Ensuite, l'étape suivante progressive, la deuxième étape, stabilise la formation avec un cadre de formation de type enseignant-élève utilisant une fonction de perte unique. Troisièmement, contrairement aux techniques actuelles à quelques prises de vue consistant à représenter chaque exemple d'entrée avec une seule entité à la fin du réseau, nous proposons un extracteur d'entités d'ensemble et des ensembles d'entités correspondantes qui assouplissent l'hypothèse typique basée sur une seule entité en raisonnant sur des ensembles d'entités. Ici, nous émettons l'hypothèse que l'hypothèse d'une seule caractéristique est problématique dans la classification d'images à quelques prises de vue puisque les nouvelles classes sont différentes des classes de base préformées. À cette fin, nous proposons nouvel extracteur de caractéristiques d'ensemble d'apprentissage profond basé sur les réseaux de neurones hybrides convolution-attention. De plus, nous suggérons trois métriques ensemble à ensemble non paramétriques pour séduire la classe de l'entrée donnée. Cette thèse utilise plusieurs indicateurs standards publiés dans la littérature sur l'apprentissage en peu d'exemples et l'ossature de réseau pour évaluer les méthodes que nous proposons. / As the current state-of-the-art machine learning algorithms, deep neural networks require many examples to perform well on a learning task. Gathering and annotating many samples requires significant human labor, and it is even impossible in most real-world problems such as biomedical data analysis. Under the computer vision context, few-shot image classification aims at grasping the human ability to learn new concepts with little supervision. In this respect, the general idea is to transfer knowledge from base categories with more supervision to novel classes with few examples. In particular, the current few-shot learning approaches pre-train a model on available base classes to generalize to the novel classes, perhaps with fine-tuning. However, the current model's generalization is limited because of some assumptions in the pre-training and restrictions in the fine-tuning stage. This thesis aims to relax three assumptions of the current few-shot learning models, and we propose representation learning for few-shot image classification. First, freezing a pre-trained model looks inevitable in the fine-tuning stage due to the high possibility of overfitting on a few examples. Unfortunately, transfer learning with a frozen model assumption limits the model capacity since the model is not updated with any knowledge of the novel classes. In contrast to freezing a model, we propose associative alignment that enables fine-tuning and updating the network on novel categories. Specifically, we present two strategies that detect and align the novel classes to the highly related base categories. While the first strategy pushes the distribution of the novel classes to the center of their related base categories, the second strategy performs distribution matching using an adversarial training algorithm. Overall, our associative alignment aims to prevent overfitting and increase the model capacity by refining the model using novel examples and related base samples. Second, the current few-shot learning approaches perform transferring knowledge to distinctive novel classes under the uni-modal assumption, where all the examples of a single class are represented with a single cluster. Instead, we propose a mixture-based feature space learning (MixtFSL) approach to infer a multi-modal representation. While a previous mixture-model-based work of Allen et al. [1] is based on a classical clustering method in a non-differentiable manner, our MixtFSL is a new end-to-end multi-modal and fully differentiable model. MixtFSL captures the multi-modality of base classes without any classical clustering algorithm using a two-stage framework. The first phase is called initial training and aims to learn preliminary mixture representation with a pair of loss functions. Then, the progressive following stage, the second stage, stabilizes the training with a teacher-student kind of training framework using a single loss function. Third, unlike the current few-shot techniques of representing each input example with a single feature at the end of the network, we propose a set feature extractor and matching feature sets that relax the typical single feature-based assumption by reasoning on feature sets. Here, we hypothesize that the single feature assumption is problematic in few-shot image classification since the novel classes are different from pre-trained base classes. To this end, we propose a new deep learning set feature extractor based on the hybrid convolution-attention neural networks. Additionally, we offer three non-parametric set-to-set metrics to infer the class of the given input. This thesis employs several standard benchmarks of few-shot learning literature and network backbones to evaluate our proposed methods.
13

Neural networks for optical channel equalization in high speed communication systems

Kalla, Sai Chandra Kumari 11 February 2021 (has links)
La demande future de bande passante pour les données dépassera les capacités des systèmes de communication optique actuels, qui approchent de leurs limites en raison des limitations de la bande passante électrique des composants de l’émetteur. L’interférence intersymbole (ISI) due à cette limitation de bande est le principal facteur de dégradation pour atteindre des débits de données élevés. Dans ce mémoire, nous étudions plusieurs techniques de réseaux neuronaux (NN) pour combattre les limites physiques des composants de l’émetteur pilotés à des débits de données élevés et exploitant les formats de modulation avancés avec une détection cohérente. Notre objectif principal avec les NN comme égaliseurs de canaux ISI est de surmonter les limites des récepteurs optimaux conventionnels, en fournissant une complexité évolutive moindre et une solution quasi optimale. Nous proposons une nouvelle architecture bidirectionnelle profonde de mémoire à long terme (BiLSTM), qui est efficace pour atténuer les graves problèmes d’ISI causés par les composants à bande limitée. Pour la première fois, nous démontrons par simulation que notre BiLSTM profonde proposée atteint le même taux d’erreur sur les bits(TEB) qu’un estimateur de séquence à maximum de vraisemblance (MLSE) optimal pour la modulation MDPQ. Les NN étant des modèles pilotés par les données, leurs performances dépendent fortement de la qualité des données d’entrée. Nous démontrons comment les performances du BiLSTM profond réalisable se dégradent avec l’augmentation de l’ordre de modulation. Nous examinons également l’impact de la sévérité de l’ISI et de la longueur de la mémoire du canal sur les performances de la BiLSTM profonde. Nous étudions les performances de divers canaux synthétiques à bande limitée ainsi qu’un canal optique mesuré à 100 Gbaud en utilisant un modulateur photonique au silicium (SiP) de 35 GHz. La gravité ISI de ces canaux est quantifiée grâce à une nouvelle vue graphique des performances basée sur les écarts de performance de base entre les solutions optimales linéaires et non linéaires classiques. Aux ordres QAM supérieurs à la QPSK, nous quantifions l’écart de performance BiLSTM profond par rapport à la MLSE optimale à mesure que la sévérité ISI augmente. Alors qu’elle s’approche des performances optimales de la MLSE à 8QAM et 16QAM avec une pénalité, elle est capable de dépasser largement la solution optimale linéaire à 32QAM. Plus important encore, l’avantage de l’utilisation de modèles d’auto-apprentissage comme les NN est leur capacité à apprendre le canal pendant la formation, alors que la MLSE optimale nécessite des informations précises sur l’état du canal. / The future demand for the data bandwidth will surpass the capabilities of current optical communication systems, which are approaching their limits due to the electrical bandwidth limitations of the transmitter components. Inter-symbol interference (ISI) due to this band limitation is the major degradation factor to achieve high data rates. In this thesis, we investigate several neural network (NN) techniques to combat the physical limits of the transmitter components driven at high data rates and exploiting the advanced modulation formats with coherent detection. Our main focus with NNs as ISI channel equalizers is to overcome the limitations of conventional optimal receivers, by providing lower scalable complexity and near optimal solution. We propose a novel deep bidirectional long short-term memory (BiLSTM) architecture, that is effective in mitigating severe ISI caused by bandlimited components. For the first time, we demonstrate via simulation that our proposed deep BiLSTM achieves the same bit error rate (BER) performance as an optimal maximum likelihood sequence estimator (MLSE) for QPSK modulation. The NNs being data-driven models, their performance acutely depends on input data quality. We demonstrate how the achievable deep BiLSTM performance degrades with the increase in modulation order. We also examine the impact of ISI severity and channel memory length on deep BiLSTM performance. We investigate the performances of various synthetic band-limited channels along with a measured optical channel at 100 Gbaud using a 35 GHz silicon photonic(SiP) modulator. The ISI severity of these channels is quantified with a new graphical view of performance based on the baseline performance gaps between conventional linear and nonlinear optimal solutions. At QAM orders above QPSK, we quantify deep BiLSTM performance deviation from the optimal MLSE as ISI severity increases. While deep BiLSTM approaches the optimal MLSE performance at 8QAM and 16QAM with a penalty, it is able to greatly surpass the linear optimal solution at 32QAM. More importantly, the advantage of using self learning models like NNs is their ability to learn the channel during the training, while the optimal MLSE requires accurate channel state information.
14

Apprentissage autonome de réseaux de neurones pour le pilotage en temps réel des systèmes de production basé sur l'optimisation via simulation

Mouelhi-Chibani, Wiem 12 October 2009 (has links) (PDF)
Le pilotage en temps réel des systèmes de production nécessite de prendre des décisions complexes sur l'affectation des ressources ou le choix des tâches à réaliser. Compte tenu de l'importance de la pertinence des décisions pour la performance d'un atelier, le pilotage fait l'objet de travaux de recherche dont l'objectif est d'aider les preneurs de décision. En particulier, on ne sait pas évaluer les conséquences sur la performance d'une décision en temps réel car les bonnes performances résultent d'une séquence de décisions et non d'une seule. De ce fait, il est difficile d'établir quelle est la meilleure décision à prendre à un instant donné. Plusieurs auteurs ont utilisé la simulation pour apprendre des bonnes pratiques à l'aide d'approches d'apprentissage automatique, mais se sont heurtés à la difficulté d'obtenir des exemples ou des observations sur des décisions en temps réel, où la prise en compte des changements d'états est indispensable pour choisir des stratégies de production. Nous avons réussi à aborder ce problème en proposant une approche d'apprentissage à l'aide de réseaux de neurones, qui ne nécessite pas d'exemples, d'observations ni de connaissances d'experts préalables. Ce type d'apprentissage s'effectue par optimisation via simulation des paramètres du réseau de neurones par rapport à un objectif de performance du système. Il vise à extraire de façon autonome des connaissances sur la meilleure façon de décider d'un modèle de simulation. Nous montrons la faisablité et l'apport de notre approche sur deux exemples inspirés de la littérature
15

Modèles de connaissance de la cristallisation de troisième jet en sucrerie de cannes Expérimentations et simulations

Libelle, Teddy Jeannick 28 September 2007 (has links) (PDF)
Cette étude concerne la modélisation d'un procédé de cristallisation de troisième jet, dite cristallisation C, en sucrerie de cannes. De par la complexité des phénomènes physico-chimiques mis en jeu lors d'une cristallisation industrielle, il est nécessaire de développer plusieurs approches de modélisation. Cette multiplicité de modèles permet de comparer ainsi les diverses approches proposées. Nous avons pour cela axé notre étude sur la modélisation des diverses cinétiques des phénomènes physiques qui interviennent lors d'une cristallisation C, par le biais de plusieurs modèles mathématiques. En effet, nous avons considéré trois types de cinétiques pouvant exister au sein de la solution : les cinétiques de nucléation, de croissance et d'agglomération. Nous avons aussi mis en place plusieurs stratégies de modélisation dites hybrides, qui sont en fait les combinaisons de réseaux de neurones et de modèles de connaissances. Les phases d'apprentissage des réseaux de neurones sont basées sur des mesures, et la modélisation globale du procédé de cristallisation combine cette approche systémique aux différents modèles de connaissance choisis. Ces diverses approches utilisées n occultent pas les démarches classiques de modélisation en génie de la cristallisation. De ce fait, si nous souhaitons contrôler le procédé, plusieurs modèles mathématiques s'articulant autour de différents bilans de population sont proposés. Ce travail est original, d'une part, car il décrit la cristallisation de troisième jet, et d'autre part, du fait que les divers modèles de cinétiques soient identifiés avec des données industrielles. En effet, il faut souligner qu'il n'existe quasiment pas de travaux relatifs à la cristallisation C, donc peu de références bibliographiques sur cette cristallisation de bas produit en milieu industriel sucrier.
16

Hydroinformatics and diversity in hydrological ensemble prediction systems

Brochero, Darwin 19 April 2018 (has links)
Nous abordons la prévision probabiliste des débits à partir de deux perspectives basées sur la complémentarité de multiples modèles hydrologiques (diversité). La première exploite une méthodologie hybride basée sur l’évaluation de plusieurs modèles hydrologiques globaux et d’outils d’apprentissage automatique pour la sélection optimale des prédicteurs, alors que la seconde fait recourt à la construction d’ensembles de réseaux de neurones en forçant la diversité. Cette thèse repose sur le concept de la diversité pour développer des méthodologies différentes autour de deux problèmes pouvant être considérés comme complémentaires. La première approche a pour objet la simplification d’un système complexe de prévisions hydrologiques d’ensemble (dont l’acronyme anglais est HEPS) qui dispose de 800 scénarios quotidiens, correspondant à la combinaison d’un modèle de 50 prédictions météorologiques probabilistes et de 16 modèles hydrologiques globaux. Pour la simplification, nous avons exploré quatre techniques: la Linear Correlation Elimination, la Mutual Information, la Backward Greedy Selection et le Nondominated Sorting Genetic Algorithm II (NSGA-II). Nous avons plus particulièrement développé la notion de participation optimale des modèles hydrologiques qui nous renseigne sur le nombre de membres météorologiques représentatifs à utiliser pour chacun des modèles hydrologiques. La seconde approche consiste principalement en la sélection stratifiée des données qui sont à la base de l’élaboration d’un ensemble de réseaux de neurones qui agissent comme autant de prédicteurs. Ainsi, chacun d’entre eux est entraîné avec des entrées tirées de l’application d’une sélection de variables pour différents échantillons stratifiés. Pour cela, nous utilisons la base de données du deuxième et troisième ateliers du projet international MOdel Parameter Estimation eXperiment (MOPEX). En résumé, nous démontrons par ces deux approches que la diversité implicite est efficace dans la configuration d’un HEPS de haute performance. / In this thesis, we tackle the problem of streamflow probabilistic forecasting from two different perspectives based on multiple hydrological models collaboration (diversity). The first one favours a hybrid approach for the evaluation of multiple global hydrological models and tools of machine learning for predictors selection, while the second one constructs Artificial Neural Network (ANN) ensembles, forcing diversity within. This thesis is based on the concept of diversity for developing different methodologies around two complementary problems. The first one focused on simplifying, via members selection, a complex Hydrological Ensemble Prediction System (HEPS) that has 800 daily forecast scenarios originating from the combination of 50 meteorological precipitation members and 16 global hydrological models. We explore in depth four techniques: Linear Correlation Elimination, Mutual Information, Backward Greedy Selection, and Nondominated Sorting Genetic Algorithm II (NSGA-II). We propose the optimal hydrological model participation concept that identifies the number of meteorological representative members to propagate into each hydrological model in the simplified HEPS scheme. The second problem consists in the stratified selection of data patterns that are used for training an ANN ensemble or stack. For instance, taken from the database of the second and third MOdel Parameter Estimation eXperiment (MOPEX) workshops, we promoted an ANN prediction stack in which each predictor is trained on input spaces defined by the Input Variable Selection application on different stratified sub-samples. In summary, we demonstrated that implicit diversity in the configuration of a HEPS is efficient in the search for a HEPS of high performance.
17

Développement de méthodes d'apprentissage profond pour l'aide au diagnostic du cancer par spectrométrie de masse

Seddiki, Khawla 28 September 2023 (has links)
Thèse ou mémoire avec insertion d'articles / La spectrométrie de masse est devenue ces dernières années une technologie incontournable dans l'analyse à large échelle des composés cellulaires. En recherche clinique, les études qui utilisent cette technologie sont de plus en plus répandues. Ces études visent principalement deux objectifs. Le premier est le diagnostic de maladies qui passe par la classification d'échantillons provenant de différents états expérimentaux. Le deuxième objectif est l'identification de signatures des maladies étudiées qui passe par la mise en évidence de biomarqueurs. Cependant, la grande dimensionnalité, la présence de bruit et la complexité des données liées à ce type d'analyse nécessitent le développement d'outils computationnels performants. La récente émergence d'algorithmes d'apprentissage automatique a révolutionné de nombreux domaines de recherche y compris le diagnostic et l'identification de biomarqueurs. Néanmoins, ces algorithmes ne permettent pas toujours d'obtenir des résultats satisfaisants car ils nécessitent au préalable des étapes fastidieuses de prétraitement et de sélection d'attributs. Tandis que les algorithmes d'apprentissage profond et plus particulièrement les réseaux de neurones ont la capacité d'extraire automatiquement les caractéristiques pertinentes à partir de données brutes. Cette thèse vise à concevoir des algorithmes à base de réseaux de neurones pour le diagnostic du cancer et l'identification de biomarqueurs à partir de données protéomiques et métabolomiques. Ce travail est présenté sous la forme de trois contributions. La première, nommée apprentissage cumulatif, est une nouvelle méthodologie à base de réseaux de neurones convolutifs développée pour le diagnostic dans un contexte de rareté de données. La deuxième contribution est une nouvelle méthodologie à base de réseaux de neurones récurrents développée pour le diagnostic précoce. Ces deux méthodologies ont été comparées à des approches d'apprentissage automatique traditionnellement utilisées pour les données de spectrométrie de masse. Non seulement nos méthodologies ont été plus performantes que les approches traditionnelles. Elles ont eu également l'avantage d'être efficaces sur les données brutes et ont permis ainsi de s'affranchir des étapes coûteuses de prétraitement et de sélection d'attributs. De plus, elles ont eu un temps d'exécution de quelques secondes les rendant compatibles avec une analyse clinique rapide. Pour ce qui est de la troisième contribution, nommée SpectraLIME, elle consiste en une méthodologie d'interprétation des réseaux de neurones. Elle a identifié des régions spectrales d'intérêt contenant des biomarqueurs connus et des biomarqueurs candidats pouvant constituer de nouvelles cibles diagnostiques ou thérapeutiques. Nous avons pu démontrer tout au long de cette thèse la puissance des algorithmes d'apprentissage profond appliqués aux données omiques. Ce travail illustre l'intérêt de la spectrométrie de masse comme un outil puissant qui améliore remarquablement l'aide à la décision clinique. / In recent years, mass spectrometry has become an essential technology for large-scale analysis of cellular compounds. In clinical research, studies using this technology are becoming moreand more widespread. These studies have two main objectives. First, the diagnosis of diseases through the classification of samples from different experimental conditions. The second objective is the identification of signatures of the studied diseases through the detection of biomarkers. However, the high dimensionality, the presence of noise and the complexity of the data related to this type of analysis require the development of powerful computational tools. The recent emergence of machine learning algorithms has revolutionized many research areas including diagnosis and biomarker identification. However, these algorithms do not always provide satisfactory results because they require tedious pre-processing and feature selection steps. While deep learning algorithms and more particularly neural networks have the ability to automatically extract relevant features from raw data. This thesis aims at designing neural network algorithms for cancer diagnosis and biomarkers identification from proteomic and metabolomic data. This work is presented in the form of three contributions. The first one, named cumulative learning, is a new methodology based on convolutional neural networks developed for diagnosis in a context of data scarcity. The second contribution is a new methodology based on recurrent neural networks developed for early diagnosis. These two methodologies were compared to machine learning approaches traditionally used for mass spectrometry data. Not only our methodologies outperformed traditional approaches, but they also had the advantage of being effective on raw data and thus avoided costly pre-processing and feature selection steps. Moreover, they had an execution time of a few seconds, making them compatible with rapid clinical analysis. The third contribution, named SpectraLIME, consists of a methodology of neural networks interpretability. It identified spectral regions of interest containing known biomarkers and candidate biomarkers that could constitute new diagnostic or therapeutic targets. Throughout this thesis, we were able to demonstrate the power of deep learning algorithms applied to omics data. This work illustrates the interest of mass spectrometry as a valuable tool that remarkably improves clinical decision support.
18

Modélisation hydrologique probabiliste par réseaux de neurones : calibration de la distribution prédictive

Boucher, Marie-Amélie 12 April 2018 (has links)
Depuis quelques années, les prévisions probabilistes suscitent un intérêt croissant parmi les communautés météorologique et hydrologique. Cet intérêt découle en majeure partie du fait que ce type de prévision permet l'évaluation de l'incertitude associée aux prévisions. Les prévisions d'ensemble peuvent être construites à partir de réseaux de neurones. Cette méthode est avantageuse pour sa simplicité et pour sa rapidité d'exécution. L'évaluation de l'incertitude associée aux prévisions par réseaux de neurones ne peut s'effectuer analytiquement puisque l'expression mathématique du modèle est inconnue. C'est pourquoi des méthodes comme celle du rééchantillonnage avec remise (bootstrap) sont parfois employées pour déterminer l'incertitude associée à la prévision déterministe issue d'un réseau de neurones. Cette technique permet d'obtenir un ensemble de prévisions pour chaque pas de temps. Une loi de probabilité peut alors être ajustée aux prévisions d'ensemble afin d'obtenir une distribution prédictive. Cependant, à notre connaissance, la fiabilité de cette prévision probabiliste n'a pas été démontrée. La calibration de cette distribution ainsi que les mesures à prendre pour la corriger ne semble pas avoir été examinée à ce jour dans un contexte hydrologique. Ce mémoire présente différentes méthodes graphiques et numériques pour vérifier la qualité des prévisions probabilistes hydrologiques issues de réseaux de neurones. Ces méthodes ne sont pas uniquement applicables aux réseaux de neurones et pourraient être utilisées avec n'importe quel type de prévisions probabilistes de variables continues. La calibration de la distribution prédictive sera évaluée et corrigée et l'influence de la technique du rééchantillonnage avec remise sur les prévisions d'ensemble sera investiguée. / Since the last few years, there has been an increasing interest for probabilistic forecasting in the meteorological and hydrological community. This enthusiasm arises in a large extent from the possibility of uncertainty assessment that probabilistic forecasting has brought. Hydrological ensemble forecasting may be constructed using neural networks, which is a very useful tool regarding its simplicity and execution speed. Since the mathematical description the neural model remains unknown by the user, it is not possible to evaluate the forecast's uncertainty in a strict mathematical way. Some methods like the bootstrap can be used to overcome this difficulty. The bootstrap generates an ensemble of forecasts at each time step. Then, the ensemble can be used to fit a law of probability in order to obtain a predictive distribution. However, to the extent of our knowledge, the reliability of this probabilistic forecast has never been investigated. In addition, the calibration of this distribution as well as methods to correct it does not appear to have been investigated up to day in a hydrological context. This document presents graphical and numerical methods used to assess the quality of probabilistic hydrological forecasts obtained from neural networks. The methods employed here apply to any type of probabilistic forecasts of continuous variable and are not restricted to neural networks forecasting. The calibration of the predictive distribution will be evaluated and corrected, and the impact of the bootstrap will be investigated.
19

Generating plumitifs descriptions using neural networks

Garneau, Nicolas 02 June 2023 (has links)
Titre de l'écran-titre (visionné le 24 mai 2023) / Comme dans de nombreuses autres démocraties, il existe au Canada un droit d'accès à l'information judiciaire. Il s'agit d'un élément fondamental de tout processus judiciaire. Ce droit a deux objectifs principaux : offrir une fenêtre sur le système de justice et permettre aux gens d'acquérir une meilleure compréhension du processus judiciaire. Parmi les documents essentiels au système de justice figure le plumitif : un document qui détaille le déroulement de chaque dossier ouverts devant les tribunaux. Malgré tout, il a été démontré que le plumitif est un document difficile à comprendre, tant pour les citoyens que les praticiens. Dans cette thèse, nous concentrons nos efforts sur le plumitif criminel, et nous proposons d'améliorer l'accès à ce registre juridique à l'aide de techniques du traitement automatique de la langue naturelle. Premièrement, nous proposons un nouveau jeu de données pour la génération des descriptions de plumitifs. Ce jeu de données est utilisé pour entraîner des générateurs de texte neuronaux afin de fournir des descriptions intelligibles des plumitifs criminels. Nous proposons ensuite une nouvelle métrique robuste d'évaluation de génération textuelle qui quantifie les omissions et les hallucinations des générateurs textuels neuronaux, un problème de grande importance dans le domaine juridique. Nous avons ensuite mené une évaluation manuelle des générations faites par différents modèles de réseaux de neurones, pour mieux caractériser le comportement de ceux-ci. Finalement, nous proposons un nouvel algorithme de décodage pour les générateurs textuels neuronaux de types "data-to-text" qui améliore la fidélité du texte généré par rapport aux données d'entrée. / As in many other democracies, Canada has a right of access to court information. It is a fundamental element of any judicial process. This right has two main purposes: to provide a window on the justice system and to allow people to gain a better understanding of the court process. One of the essential documents in the justice system is the docket; a document that details the progress of each case before the courts. Despite this, it has been shown that the docket is a document difficult to understand for both citizens and practitioners. In this thesis, we focus our efforts on the criminal docket, and we propose to improve access to this legal record using automatic natural language processing techniques. To this end, we propose a new dataset for generating docket descriptions. This dataset is used to train neural text generators to provide intelligible descriptions of criminal dockets. We then propose a new robust text generation evaluation metric that quantifies omissions and hallucinations of neural text generators, a problem of great importance in the legal domain. We then conduct a manual evaluation of generations made by neural networks, to better characterize their behavior. Finally, we propose a new decoding algorithm for data-to-text neural generators that improves the faithfulness of generated text with respect to the input.
20

Observation et modélisation de l'évaporation d'une rivière en milieu boréal

Girard, Médéric 07 December 2020 (has links)
L’objectif de ce projet de recherche est de développer un modèle d’évaporation de l’eau d’une rivière en milieu boréal. Un site expérimental sur la rivière Natashquan dans la région de la Côte-Nord au Québec a été sélectionné pour y installer une station hydrométéorologique faisant un suivi des variables environnementales locales. Cette rivière est marquante dans le paysage de la Minganie par la superficie de 15 930 km2 de son bassin versant et son débit moyen annuel de 349 m3/s. Ce puissant cours d’eau est une des dernières rivières naturelles de la Côte-Nord n’étant pas harnachée par un barrage. Une campagne constituée de 5 sorties de mesures intensives sur le terrain a été effectuée afin d’observer l’évaporation de l’eau de la rivière par la méthode des mini-lysimètres flottants. Ces derniers s’inspirent du processus derrière le bac évaporatoire de classe A pour obtenir une estimation de l’évaporation in-situ en ayant un petit bac évaporatoire portatif à la surface de l’eau de la rivière. Un modèle d’évaporation par transfert de masse a été développé avec les données récoltées et 8 fonctions de vent de la littérature ont été testées. Puis, un modèle d’évaporation par ensemble de réseaux de neurones a été retenu, car il offrait une meilleure performance que les approches classiques. Ce réseau de neurones ayant comme variables d’entrée la tension de vapeur à saturation, le rayonnement incident d’ondes longues, la vitesse du vent et la tension de vapeur de l’air, permet d’explorer une non linéarité entre les variables qui n’est pas accessible à l’approche de transfert de masse. Ce modèle met en évidence le manque de recherche sur les processus gouvernant l’évaporation fluviale dans le cadre de rivière de grande envergure et particulièrement l’évaporation des rivières du milieu boréal. / The objective of this study was to develop a river evaporation model for the boreal biome. A hydrometeorological station was installed on the bank of the Natashquan river to collect environmental data. The Natashquan river is major hydrographic component of the region with its 15 930 km2 watershed and its 349 m3/s mean annual flow. This powerful watercourse is one of the only remaining significant river that has not yet been dammed in the Côte-Nord region. Five intensive field campaigns were carried out targeting different conditions during the summers of 2018 and 2019. River water evaporation was observed using the floating minipan method. This method, inspired by the process behind the class A evaporation pan, allows small portable evaporation pans to be deployed on the water surface and to monitor in-situ evaporation in more holistic conditions. Observations were used to calibrate the wind function of a mass-transfer evaporation model and compare it with different wind functions taken from the literature. A stacked neural network was selected as the river model based on a higher performance compared to the mass transfer approach. The input variables of the network are the saturation vapour pressure, the incoming longwave radiation, the wind speed and the vapour pressure of the above air. The model allows a nonlinear combination of the selected environmental variables that is not accessible to the mass transfer equations. Therefore, the present study highlights the evident lack of research concerning fluvial evaporation in the context of rivers of considerable size, particularly in the boreal biome.

Page generated in 0.1296 seconds