• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2449
  • 1620
  • 1256
  • 21
  • 6
  • 6
  • 2
  • 2
  • 1
  • Tagged with
  • 5655
  • 3141
  • 3003
  • 1276
  • 692
  • 690
  • 662
  • 645
  • 622
  • 598
  • 486
  • 477
  • 457
  • 454
  • 438
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
851

Deep-learning feature descriptor for tree bark re-identification

Robert, Martin 04 February 2021 (has links)
L’habilité de visuellement ré-identifier des objets est une capacité fondamentale des systèmes de vision. Souvent, ces systèmes s’appuient sur une collection de signatures visuelles basées sur des descripteurs comme SIFT ou SURF. Cependant, ces descripteurs traditionnels ont été conçus pour un certain domaine d’aspects et de géométries de surface (relief limité). Par conséquent, les surfaces très texturées telles que l’écorce des arbres leur posent un défi. Alors, cela rend plus difficile l’utilisation des arbres comme points de repère identifiables à des fins de navigation (robotique) ou le suivi du bois abattu le long d’une chaîne logistique (logistique). Nous proposons donc d’utiliser des descripteurs basés sur les données, qui une fois entraîné avec des images d’écorce, permettront la ré-identification de surfaces d’arbres. À cet effet, nous avons collecté un grand ensemble de données contenant 2 400 images d’écorce présentant de forts changements d’éclairage, annotées par surface et avec la possibilité d’être alignées au pixels près. Nous avons utilisé cet ensemble de données pour échantillonner parmis plus de 2 millions de parcelle d’image de 64x64 pixels afin d’entraîner nos nouveaux descripteurs locaux DeepBark et SqueezeBark. Notre méthode DeepBark a montré un net avantage par rapport aux descripteurs fabriqués à la main SIFT et SURF. Par exemple, nous avons démontré que DeepBark peut atteindre une mAP de 87.2% lorsqu’il doit retrouver 11 images d’écorce pertinentes, i.e correspondant à la même surface physique, à une image requête parmis 7,900 images. Notre travail suggère donc qu’il est possible de ré-identifier la surfaces des arbres dans un contexte difficile, tout en rendant public un nouvel ensemble de données. / The ability to visually re-identify objects is a fundamental capability in vision systems. Oftentimes,it relies on collections of visual signatures based on descriptors, such as SIFT orSURF. However, these traditional descriptors were designed for a certain domain of surface appearances and geometries (limited relief). Consequently, highly-textured surfaces such as tree bark pose a challenge to them. In turn, this makes it more difficult to use trees as identifiable landmarks for navigational purposes (robotics) or to track felled lumber along a supply chain (logistics). We thus propose to use data-driven descriptors trained on bark images for tree surface re-identification. To this effect, we collected a large dataset containing 2,400 bark images with strong illumination changes, annotated by surface and with the ability to pixel align them. We used this dataset to sample from more than 2 million 64 64 pixel patches to train our novel local descriptors DeepBark and SqueezeBark. Our DeepBark method has shown a clear advantage against the hand-crafted descriptors SIFT and SURF. For instance, we demonstrated that DeepBark can reach a mAP of 87.2% when retrieving 11 relevant barkimages, i.e. corresponding to the same physical surface, to a bark query against 7,900 images. ur work thus suggests that re-identifying tree surfaces in a challenging illuminations contextis possible. We also make public our dataset, which can be used to benchmark surfacere-identification techniques.
852

L'outil bio-informatique Genes to diseases : une nouvelle approche méthodologique pour l'identification de gènes d'asthme

Potvin, Camille 17 April 2018 (has links)
L'asthme est une maladie chronique des voies aériennes répandue mondialement, connue comme un trait complexe, donc sous l'influence de plusieurs gènes (parmi lesquels un bon nombre a déjà été identifié) en interaction avec l'environnement. Le but de ce projet consiste à vérifier l'efficacité de l'outil bioinformatique Genes to Diseases (G2D), en l'utilisant pour la construction d'une liste de gènes qui pourront être ciblés en vue d'une analyse d'association entre des polymorphismes de ces gènes et l'asthme ainsi que les conditions reliées à la maladie. Dans ce contexte, une étude d'association sur certains gènes candidats sélectionnés parmi ceux de la liste proposée par l'outil G2D a été menée dans un échantillon familial du Saguenay-Lac-Saint-Jean. Elle a permis d'identifier un nouveau gène d'asthme, PTPRE, et par la même occasion, de démontrer l'efficacité de l'outil G2D. Ce dernier permet donc l'identification de nouveaux gènes associés aux traits complexes et facilite la tâche du chercheur en réduisant le temps requis par la revue de la littérature pour arriver à cette fin.
853

Theoretical framework for prior knowledge transfer in deep learning

Chen, Qi 22 March 2024 (has links)
Thèse ou mémoire avec insertion d'articles / Le transfert de connaissances a priori est essentiel pour améliorer les performances des modèles modernes d'apprentissage profond et réduire les coûts pour les entraîner. Cet article vise à étudier ce sujet important en établissant des cadres théoriques systématiques pour le transfert de connaissances a priori en apprentissage profond. Premièrement, nous introduisons un cadre théorique unifié reliant les approches conventionnelles d'apprentissage à apprendre et les méthodes modernes de méta-apprentissage indépendant du modèle (MAML). Les méthodes conventionnelles apprennent conjointement des modèles spécifiques à une tâche et des méta-paramètres en utilisant tous les données, tandis que MAML alterne entre les données de méta-train et de méta-validation pour entraîner les modèles et les méta-paramètres. Nous fournissons des bornes de généralisation qui sont dépendantes de l'algorithme d'apprentissage et des données, garantissant l'efficacité des deux approches. De plus, nous analysons l'impact des séparations des données de méta-train et méta-validation sur l'apprentissage alterné et proposons des bornes de généralisation non-trivials pour "l'apprentissage profond avec peu d'exemples", qui sont estimées avec l'incohérence de gradient entre les donnés de méta-train et tous les données. Par la suite, pour l'adaptation de domaine, cette thèse procède à une analyse complète des travaux théoriques antérieurs, visant à aborder certaines limites concernant les approches utilisant l'alignement de la représentation, le changement de distribution cible et le pseudo-étiquetage. Concrètement, nous présentons des analyses rigoureuses basées sur la théorie de l'information mutuelle pour l'adaptation de domaine multi-sources et proposons un algorithme qui effectue un alignement de représentation conjointe avec des pseudo-étiquettes pour atténuer le changement de distribution cible. Cet algorithme peut surpasser celui des travaux précédents dans le scénario non supervisé. Enfin, nous visons à résoudre le dilemme stabilité-plasticité dans le méta-apprentissage continu. Nous sommes les premiers à formuler théoriquement ce problème constitué d'un mélange d'apprentissage statistique et d'apprentissage en ligne dans des environnements statiques ou changeants. La théorie proposée peut identifier les facteurs influençant le compromis apprentissage-oubli à deux niveaux pour l'apprenant d'une tache et le méta-apprenant dans des environnements changeants. Nous proposons en outre un algorithme qui équilibre ce compromis à deux niveaux avec des performances empiriques améliorées. Dans l'ensemble, cette thèse fournit un cadre théorique unifié pour le méta-apprentissage, résout certaines limitations de l'adaptation de domaine et aborde le dilemme stabilité-plasticité dans le méta-apprentissage continu. Ses contributions constituent une amélioration de notre compréhension de ces domaines et proposent de meilleures méthodes de transfert de connaissances dans l'apprentissage profond. / Transferring prior knowledge is crucial in enhancing performance and reducing the training costs of modern deep-learning models. This thesis aims to study this important topic by developing systematic theoretical frameworks for prior knowledge transfer in deep learning. Firstly, we introduce a unified theoretical framework connecting the conventional learning-to-learn approaches and the modern model-agnostic meta-learning (MAML) methods. Conventional methods jointly learn task-specific models and meta-parameters using the entire dataset, while MAML alternates between meta-train and meta-validation sets for training models and meta-parameters. We provide algorithm-dependent and data-dependent generalization bounds, ensuring the effectiveness of both approaches. Furthermore, we analyze the impact of meta-train-validation split on alternate training methods and offer non-vacuous generalization bounds for deep few-shot learning estimated with the gradient-incoherence between the meta-train and the entire dataset. Subsequently, for domain adaptation, the thesis conducts a comprehensive analysis of previous theoretical works, aiming to address several limitations in representation alignment, target shift, and pseudo-labeling. Concretely, we present rigorous analyses based on information-theoretic learning theory for multi-source domain adaptation and propose an algorithm that conducts joint representation alignment with pseudo labels to mitigate target shift. The proposed algorithm outperforms previous works under the unsupervised scenario. Finally, we aim to address the stability-plasticity dilemma in continual meta-learning. We are the first to theoretically formulate this online statistical mixture learning problem in both static and shifting environments. The proposed theory can identify factors influencing the bi-level (task- and meta-level) learning-forgetting trade-off in shifting environments. We further propose an algorithm that balances the bi-level trade-off with enhanced empirical performance. Overall, this thesis provides a unified theoretical framework for meta-learning, addresses several limitations in domain adaptation, and tackles the stability-plasticity dilemma in continual meta-learning. Its contributions constitute improving our understanding of these areas and proposing new enhanced methods of knowledge transfer in deep learning.
854

L'utilisation des outils bioinformatiques pour caractériser le paysage immunologique du cancer de la prostate

Vittrant, Benjamin 01 June 2021 (has links)
Dans le cadre de mon doctorat j'ai développé des approches appliquées d'analyse de données pour effectuer une analyse multi omique du cancer de la prostate (CaP). Mon projet s'est défini en deux parties distinctes correspondant aux deux articles intégrés dans le corps de mon document. Une première partie du travail a consisté à récupérer des données omiques de différents types (RNA-Seq, Methylation, CNA, SNA, miRNA, données cliniques) associées au CaP et à les préparer avec un pipeline bioinformatique adapté. Ensuite j'ai eu pour objectif de chercher à mettre en avant de nouveaux points de contrôles de l'immunité associés à la récidive biochimique (BCR) dans le CaP au travers de ces données. Pour remplir cet objectif j'ai utilisé une approche particulière basée sur des algorithmes d'analyse en composante principale (PCA) et de régression des moindres carrés (PLS). Cela a permis de faire ressortir une famille spécifique de points de contrôle de l'immunité, la famille des LILR, qui peut potentiellement être une famille cible en immunothérapie. Dans un second temps, j'ai utilisé ces mêmes données pour développer un protocole d'analyse d'apprentissage machine (ML). Le but de ce travail était de montrer qu'il était possible de prédire si des patients allaient récidiver ou pas à partir de données RNA-Seq. J'ai montré que même avec des petits jeux de données on pouvait atteindre des scores de prédiction très bon et que les algorithmes actuels de ML prenaient bien en compte la variabilité technique de la diversité des sources de données dans le CaP. Il est donc possible d'utiliser les biobanques actuelles possédées par les structures de recherches à travers le monde pour créer des jeux de données plus importants. / As part of my PhD, I developed applied data analysis approaches to perform a multi-omic analysis of prostate cancer (CaP). My project was split into two distinct parts corresponding to the two articles integrated into the body of my document. A first part of the work consisted in recovering omics data of different types (RNA-Seq, Methylation, CNA, SNA, miRNA, clinical data) associated with CaP and preparing them with an adapted bioinformatics pipeline. Then, my goal was to seek to highlight new immunity checkpoints associated with biochemical recurrence (BCR) in CaP through these data. To fulfill this objective, I used a special approach based on Principal Component Analysis (PCA) and Partial Least Squares Regression (PLS) algorithms. This has brought out a specific family of immunity checkpoints, the LILR family, which can potentially be a target family in immunotherapy. Second, I used the same data to develop a machine learning (ML) analysis protocol. The aim of this work was to show that it was possible to predict whether or not patients would relapse from RNA-Seq data. I have shown that even with small datasets, one can achieve very good prediction scores and that current ML algorithms take into account the technical variability of the diverse data sources in the CaP. It is therefore possible to use current biobanks owned by research structures around the world to create larger datasets.
855

Bandits neuronaux pour la détection de polypharmacies potentiellement inapropriées

Larouche, Alexandre 26 May 2023 (has links)
Titre de l'écran-titre (visionné le 15 mai 2023) / La polypharmacie, le plus souvent définie comme étant la prise simultanée de 5 médicaments ou plus par un patient, est un phénomène prévalent chez les aînés. Certaines polypharmacies peuvent être considérées comme inappropriées si elles sont associées avec un événement de santé négatif comme la mort ou l'hospitalisation, il est donc crucial de les identifier. Cependant, l'énorme quantité de combinaisons de médicaments possibles, la taille des bases de données de réclamation ainsi que le coût en temps nécessaire afin de calculer une mesure d'association exacte rend cette tâche impossible à résoudre par des méthodes par force brute. Ainsi, nous proposons l'utilisation de stratégies de bandits capable d'optimiser la navigation de jeux de données de polypharmacies générés à partir de bases de données de réclamation. Nous commençons d'abord ce mémoire en posant le problème de détection de polypharmacies potentiellement inappropriées et en décrivant les données reliées à la tâche, soit les données réelles du Système intégré de surveillance des maladies chroniques du Québec ainsi que les données synthétiques utilisées dans nos expériences, générées par un simulateur que nous avons développé. Ensuite, nous définissons une représentation neuronale suffisante à l'apprentissage de la relation entre des combinaisons de médicaments et une mesure d'association à un événement de santé. Nous abordons ensuite le problème d'entraînement d'un réseau de neurones sous forme de problème d'optimisation bandit. À cette fin, une version adaptée de la stratégie NeuralTS, OptimNeuralTS, est introduite. Cette stratégie, capable de surmonter les obstacles du contexte de polypharmacie, réussit à générer de petits jeux de données sur lesquels peuvent s'entraîner des modèles prédictifs afin de classifier l'association positive ou négative d'une combinaison de médicaments à un événement de santé. Nos résultats sur des jeux de données synthétiques montrent que la stratégie OptimNeuralTS rend possible l'entraînement de modèles prédictifs capable d'effectuer la détection de combinaisons de médicaments avec un risque accru d'événement de santé même si celles-ci n'ont jamais été vues durant l'entraînement. Le déploiement de cette méthode sur les données réelles a également permis l'extraction de telles combinaisons. Cependant, une analyse plus poussée de ces combinaisons révèle également que le risque accru observé pour la plupart d'entre elles provient plutôt de facteurs externes. Néanmoins, certains résultats motivent une étude plus poussée de certaines combinaisons méconnues. / Polypharmacy, most often defined as the simultaneous consumption of five or more drugs at once, is a prevalent phenomenon in the older population. Some of these polypharmacies, deemed inappropriate, may be associated with adverse health outcomes such as death or hospitalization. Considering the number of possible drug combinations as well as the size of claims database and the cost to compute an exact association measure for a given drug combination, it is impossible to investigate every possible combination of drugs. As such, we propose to optimize the search for potentially inappropriate polypharmacies in datasets extracted from claims databases by using bandit strategies. We first define the problem of detecting potentially inappropriate polypharmacies and describe the different data sources used, that is, the real data from the Système intégré de surveillance des maladies chroniques du Québec as well as the synthetic data used in our experiments, generated by a simulator we have developed. Following this, we define a neural representation sufficient to learn the relationship between drug combinations and an association measure to a health outcome. We then tackle the problem of training such supervised neural networks by formulating it as a bandit optimization problem. To this end, we introduce an adapted version of the NeuralTS strategy called OptimNeuralTS. This strategy, capable of overcoming the challenges associated with the polypharmacy context, succeeds in generating small training datasets used to train predictive models in order to classify a drug combination as positively or negatively associated with a given health outcome. Our results on synthetic datasets show that OptimNeuralTS is able to train predictive models capable of detecting drug combinations which exhibit an increased risk of health events, even if they have never been seen during training. The deployment of this method on the real data also yields such combinations. However, further analysis of these combinations shows that the higher risk is associated to external factors such as prior health conditions for most of them. Nevertheless, some extracted drug combinations remain interesting to health experts and will be studied further.
856

Automatisation des étapes informatiques du séquençage d'un génome d'organite et utilisation de l'ordre des gènes pour analyses phylogénétiques

Charlebois, Patrick 13 April 2018 (has links)
"Une très grande quantité de données est présentement générée par le séquençage de génomes et doit être analysée à l'aide d'outils informatiques. Il est donc nécessaire de développer certains programmes permettant de faire les analyses désirées et d'automatiser les tâches informatiques redondantes pour accélérer le processus d'analyse des génomes. Les données de séquençage obtenues se doivent également d'être classées efficacement et d'être facilement accessibles, de même que les outils informatiques nécessaires à leur analyse. Une base de données a donc été développée, ainsi qu'un site Web permettant de la consulter et d'utiliser les divers programmes requis. Finalement, des analyses phylogénétiques sont couramment effectuées sur les génomes séquences. Toutefois, peu d'outils permettent d'utiliser l'ordre de gènes de ces génomes à cette fin. Un programme permettant de déterminer les blocs de gènes conservés entre différents génomes et d'utiliser les paires de gènes communes pour construire des arbres phylogénétiques a donc été développé."
857

Extensibilité du tutorat dans un système tutoriel intelligent : intégration des paradigmes de traçage des connaissances et de séquençage du curriculum

Ebale Nnemete, Alphonse 12 August 2024 (has links)
Les systèmes tutoriels intelligents (STI) sont une des applications de l'intelligence artificielle (IA) en éducation. Ils visent à simuler les activités (tâches) des tuteurs humains et à s'adapter au contexte individuel de chaque apprenant en vue de l'accompagner vers l'acquisition des habiletés requises pour la résolution d'une ou de quelques classes de problèmes dans un domaine de compétences donné. Le modèle de tutorat des environnements d'apprentissage adaptatif résulte alors de la modélisation duale de champs de compétences spécifiés et de processus pédagogiques. Ainsi, le modèle de tutorat assure l'automatisation des interventions pédagogiques en se reposant sur le modèle du domaine et en tenant compte du contexte cognitif, voire du contexte métacognitif, social, ou affectif de l'apprenant. La complexité fonctionnelle de ces plateformes a généré deux approches conceptuelles divergentes priorisant chacune, de manière mutuellement exclusive, un seul des deux principaux paramètres à la base de la modélisation du tutorat informatique, à savoir, la densité des contenus d'apprentissage et la précision du suivi des acquis et du processus d'apprentissage. L'opérationnalisation de chacune de ces approches soulève de problèmes architecturaux conséquents se rapportant à la question de l'extensibilité du tutorat dans un STI. La divergence principielle de ces approches induit une certaine complémentarité que nous avons mise en exergue dans ces travaux. En guise de réponse à la question susmentionnée, nous proposons une approche hybride de conceptualisation du tutorat informatique, une démarche de modélisation et un ensemble d'abstractions permettant de rendre compatible les approches de tutorat par traçage des connaissances (TC) et par séquençage du curriculum (SC). L'extension d'un système d'IA est un processus complexe qui passe par la mise en collaboration de différents formalismes de représentation des connaissances et divers mécanismes d'inférence. Ainsi, notre démarche, qui vise à intégrer les logiques principielles de SC et de TC, s'appuie sur la compatibilité et la flexibilité existant entre le mécanisme de raisonnement à base de règles et le formalisme de représentation par objets au sein duquel les mécanismes natifs de propagation d'instances assurent le changement d'états du système et l'automatisation des processus métiers. D'un modèle ontologique de haut niveau d'abstraction à un modèle d'architecture physique, en passant par un vocabulaire de description des contenus et des contextes d'apprentissage et par un ensemble de modèles logiques et fonctionnels, notre contribution à la résolution des défauts de scalabilité des STI actuels intègre la définition et la conceptualisation du problème de l'extensibilité des modèles de tutorat assisté par ordinateur, la proposition d'une solution, l'élaboration et la mise en œuvre d'une démarche d'opérationnalisation et de validation de la solution proposée. / Intelligent tutoring systems (ITS) are one application of artificial intelligence in education. They aim to simulate the activities of "human tutors" and adapt to the context of each learner to help them acquire the skills required to solve problems in a given knowledge area. The tutoring model of an adaptive learning environment then results from the modelling of a specific knowledge domain and the modelling of pedagogical expertise. Thus, the tutoring model ensures the automation of pedagogical interventions by referring to the domain model and considering the cognitive context, and sometimes, the metacognitive, social or affective context of learners. From the functional complexity of these platforms have emerged two divergent conceptual approaches prioritising, each one, in a mutually exclusive way, only one of the two main parameters underlying the modelling of computer-aided tutoring: the size of the learning content and the precision of the monitoring of learner's skills and the learning process. Operationalising these paradigms raises enormous architectural issues including the question of scaling up tutoring in an ITS. The principled divergence of both paradigms induces some complementarity highlighted in this work, and, answering the above question, we propose a hybrid approach to the conceptualisation of automated tutoring, a modeling approach and a set of abstractions to make the knowledge tracing (KT) and curriculum sequencing (CS) approaches compatible. Scaling up an artificial intelligence system is a critical process that requires the collaboration of different knowledge representation formalisms and inference mechanisms. Our approach, which aims to integrate the conceptual logics of SC and KT, is based on the compatibility and flexibility between the rule-based reasoning mechanism and the object-based or frame-oriented representation formalism within which the native mechanisms of instance propagation ensure the system's state changes and the automation of business processes. From a high-level ontological model (based on a vocabulary for describing content and learning contexts) to a physical architecture model, passing by logical and functional models, our contribution to fixing this level 2 scalability defect includes, on the one hand, the definition of the problem of scaling up tutoring in an ITS and the proposal of a solution, and on the other hand, the conceptualisation, the operationalisation and the validation (via prototyping) of that solution.
858

Envrionnement [sic] fonctionnel distribué et dynamique pour systèmes embarqués

Amar, Abdelkader Dekeyser, Jean-Luc Boulet, Pierre. January 2003 (has links) (PDF)
Thèse doctorat : Informatique : Lille 1 : 2003. / N° d'ordre (Lille 1) : 3393. Résumé en français et en anglais. Bibliogr. p. 129-135.
859

Une démarche dirigée par les modèles pour la personnalisation des applications embarquées dans les cartes à puce

Bonnet, Stéphane Geib, Jean-Marc. Potonniée, Olivier Marvie, Raphaël January 2007 (has links)
Reproduction de : Thèse de doctorat : Informatique : Lille 1 : 2005. / Résumé en français et en anglais. Titre provenant de la page de titre du document numérisé. Bibliogr. p. 143-155.
860

Modèle et algorithme d'ordonnancement pour architectures reconfigurables dynamiquement

Benkermi, Imène Sentieys, Olivier. January 2007 (has links) (PDF)
Thèse doctorat : Traitement du signal et télécommunications : Rennes 1 : 2007. / Bibliogr. p. 129-134.

Page generated in 0.0841 seconds