• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 255
  • 249
  • 48
  • 3
  • 2
  • 1
  • 1
  • Tagged with
  • 571
  • 571
  • 374
  • 361
  • 115
  • 114
  • 112
  • 105
  • 96
  • 94
  • 90
  • 89
  • 88
  • 72
  • 70
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Développement d'outils computationnels pour une approche de métabolomique non ciblée par spectrométrie de masse à haut débit

Plante, Pier-Luc 13 December 2023 (has links)
La métabolomique est l'étude des petites molécules produites par un système biologique. L'objectif principal des études en métabolomique non ciblées est la recherche d'une signature moléculaire, à base de biomarqueurs, permettant de distinguer deux phénotypes(ex. : malade et sain). Elle trouve des applications dans le domaine de la santé, de la nutrition, de l'agroalimentation et même de l'environnement. La spectrométrie de masse couplée à la chromatographie liquide est une des techniques les plus utilisées puisqu'elle offre sensibilité et spécificité lors de l'étude du métabolome. Par contre, le long temps d'analyse limite la taille et la portée des études métabolomiques. De nouvelles approches de métabolomique non ciblée à haut débit par spectrométrie de masse où un échantillon peut être analysé en quelques secondes peuvent cependant éliminer cette barrière. Ce changement de paradigme entraîne une complexification des différentes étapes de l'analyse de données (prétraitement, recherche de biomarqueurs et identification des métabolites). Dans le cadre de cette thèse, nous proposons différents outils basés sur l'apprentissage automatique visant à résoudre les problèmes d'analyse de données causés par une accélération de la vitesse d'acquisition et une augmentation du nombre d'échantillons. Premièrement, nous proposons une série d'algorithmes de correction et d'alignement de spectres de masse visant à les rendre comparables afin de permettre les analyses statistiques et l'apprentissage automatique. Deuxièmement, nous présentons MetaboDashboard, un outil visant à simplifier et à démocratiser l'utilisation de l'apprentissage automatique pour la recherche de biomarqueurs en métabolomique non ciblée. Un exemple de son utilisation dans le contexte d'une infection virale des voies respiratoires est présenté. Finalement, un réseau de neurones appelé DeepCCS permettant la prédiction de la section efficace dans l'objectif de supporter l'identification des métabolites est exposé. Nous démontrons, tout au long de cette thèse, l'utilité et la puissance de l'apprentissage automatique appliqué à la métabolomique non ciblée. Les outils computationnels présentés dans cette thèse sont le point de départ du développement d'une méthode de métabolomique non ciblée à haut débit. Nous espérons qu'ultimement, les contributions de cette thèse permettront la détection de biomarqueurs associés à différents phénotypes dans des populations entières avec un maximum de précision et à une vitesse encore jamais vue. / Metabolomics is defined as the study of small molecules produced by a biological system. The main objective of metabolomic studies is the search of a molecular signature, constituted of biomarkers, that allow to distinguish two phenotypes (ex: sick and healthy). It can be applied to diverse fields such as health, nutrition, food and environment. Mass spectrometry coupled to liquid chromatography is the most common technique used in metabolomics since it offers sensibility and specificity. Unfortunately, the long running time of these analysis limits the size and impact of metabolomic studies. New approaches in high-throughput untargeted metabolomics, where a sample can be analyzed in seconds, try to overcome this limitation. This new paradigm increases the complexity of the different data analysis steps that follows that acquisition (data pre-treatment, biomarker discovery and metabolite identification). In this thesis, we propose different tools based on machine learning that aim at solving the new data analysis issues that arise from the increased number of samples and throughput. First, we present new algorithms to correct and align mass spectra to make them comparable in order to enable statistical analysis and machine learning. Second, we present MetaboDashboard, a tool that aims at simplifying and democratizing the use of machine learning approach for biomarker discovery in the context of untargeted metabolomics. An example of its usage in the context of viral respiratory tract infection is then presented. Finally, a neural network tool called DeepCCS, that allow the prediction of collisional cross section for metabolite identification is reported. Throughout this thesis, we demonstrate the use and impact of machine learning applied to different problems in untargeted metabolomics. The computational tools presented in this thesis are the first steps towards the development of new methods in high-throughput untargeted metabolomics. We hope that ultimately, the scientific contributions presented in this thesis will enable biomarker discovery for different phenotypes at the scale of whole population with a level of precision and speed never seen before.
12

Intégration et applicabilité des méthodes d'apprentissage supervisé pour la conception de systèmes optiques grand-angle

Buquet, Julie 05 August 2024 (has links)
Alors que la conception optique doit se réinventer avec la démocratisation de systèmes optiques utilisés pour la vision machine, elle reste basée sur la résolution de problème non-linéaire via l'optimisation de fonction de coût. Grâce à l'avancée des recherches en apprentissage automatique, des travaux se penchent sur l'utilisation des pratiques basées sur les données pour complémenter les travaux du concepteur optique. D'une part, l'apparition de méthodes basées sur les données permet d'identifier les caractéristiques cruciales à la qualité d'un design et de réutiliser ces données dans d'autres travaux sans avoir à recommencer de zéro. D'autre part, l'exploration de l'optimisation conjointe de réseaux de neurones profonds et du design optique a permis de raffiner les critères de qualité d'image pour la vision machine. Cette thèse étudie l'applicabilité de ces méthodes pour des systèmes grand angle. Récemment démocratisés en devenant moins encombrants, ils présentent un intérêt certain en vision par ordinateur grâce à leur capacité à imager un environnement complet en une seule image. Leur conception reste cependant un défi de taille à ce jour et la distorsion en résultant, en plus de pouvoir constituer une gêne visuelle, constitue un véritable défi en apprentissage automatique. La modification des proportions sur l'image induite par celle-ci vient, de manière inhérente, altérer les performances des algorithmes de vision machine, en particulier les réseaux de neurones convolutifs. Ces recherches explorent notamment l'impact et l'optimisation de la distorsion pour améliorer les performances des réseaux de neurones pour l'estimation de profondeur à une seule image. Elles impliquent également des travaux complémentaires sur la prédiction de critères de qualité d'image comme le *RMS spot size* à partir du profil de distorsion ou encore la contribution des autres aberrations présentes dans ce type de design sur la précision des modèles de simulation. Ces recherches ont pour objectif de construire des méthodes d'optimisation partielle de système optique grand angle pour venir compléter l'expertise du concepteur. Elles visent également à en définir des cadres d'application et d'identifier leurs limites d'utilisation. / As optical design needs to be rethought with the democratization of optical systems dedicated to machine vision, it still consists in solving non-linear problems optimizing cost functions. The advances in machine learning have led to different researches focusing on using data observations to complement the work of optical designers. On the one hand, data-driven methods allow identifying optical characteristics on a design that are crucial for its performance and re-use this information in new projects instead of starting from scratch. On the other hand, the joint optimization of the optical design and a neural network is useful to fine-tune the image quality criteria for machine vision. This thesis study the applicability of these methods for ultra-wide-angle optical designs. Recently normalized by being less and less bulky, they are of interest in the vision community due to their capability to image an entire scene within a single image. Designing them, however, still constitutes a challenge and the resulting distortion, in addition to constituting a visual discomfort, is a deep-rooted limitation in machine learning. The induced modification of object proportions along the image inherently decreases the performance of deep learning algorithm, specifically those of convolutional neural networks. These researches explore in particular the impact of optimizing the distortion profile of a system to improve the performance of a neural network for monocular depth estimation. They also integrate complementary studies on the prediction of image quality indicators such as the *RMS spot size* from the distortion itself, or on the relative contribution of other optical aberrations on the accuracy of wide-angle system simulation. The objective of these works is to build methods for partially optimizing complex compound optics to complement the designer's expertise. They also aim at defining a framework for using such methods and identifying their limitations.
13

Estimation de caractéristiques externes de qualité à partir de mesures d'attributs internes : bilan et perspectives

Ait Mehedine, Lynda January 2004 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
14

Identification and Assessment of Gene Signatures in Human Breast Cancer/Identification et évaluation de signatures géniques dans le cancer du sein humain

Haibe-Kains, Benjamin B 02 April 2009 (has links)
This thesis addresses the use of machine learning techniques to develop clinical diagnostic tools for breast cancer using molecular data. These tools are designed to assist physicians in their evaluation of the clinical outcome of breast cancer (referred to as prognosis). The traditional approach to evaluating breast cancer prognosis is based on the assessment of clinico-pathologic factors known to be associated with breast cancer survival. These factors are used to make recommendations about whether further treatment is required after the removal of a tumor by surgery. Treatment such as chemotherapy depends on the estimation of patients' risk of relapse. Although current approaches do provide good prognostic assessment of breast cancer survival, clinicians are aware that there is still room for improvement in the accuracy of their prognostic estimations. In the late nineties, new high throughput technologies such as the gene expression profiling through microarray technology emerged. Microarrays allowed scientists to analyze for the first time the expression of the whole human genome ("transcriptome"). It was hoped that the analysis of genome-wide molecular data would bring new insights into the critical, underlying biological mechanisms involved in breast cancer progression, as well as significantly improve prognostic prediction. However, the analysis of microarray data is a difficult task due to their intrinsic characteristics: (i) thousands of gene expressions are measured for only few samples; (ii) the measurements are usually "noisy"; and (iii) they are highly correlated due to gene co-expressions. Since traditional statistical methods were not adapted to these settings, machine learning methods were picked up as good candidates to overcome these difficulties. However, applying machine learning methods for microarray analysis involves numerous steps, and the results are prone to overfitting. Several authors have highlighted the major pitfalls of this process in the early publications, shedding new light on the promising but overoptimistic results. Since 2002, large comparative studies have been conducted in order to identify the key characteristics of successful methods for class discovery and classification. Yet methods able to identify robust molecular signatures that can predict breast cancer prognosis have been lacking. To fill this important gap, this thesis presents an original methodology dealing specifically with the analysis of microarray and survival data in order to build prognostic models and provide an honest estimation of their performance. The approach used for signature extraction consists of a set of original methods for feature transformation, feature selection and prediction model building. A novel statistical framework is presented for performance assessment and comparison of risk prediction models. In terms of applications, we show that these methods, used in combination with a priori biological knowledge of breast cancer and numerous public microarray datasets, have resulted in some important discoveries. In particular, the research presented here develops (i) a robust model for the identification of breast molecular subtypes and (ii) a new prognostic model that takes into account the molecular heterogeneity of breast cancers observed previously, in order to improve traditional clinical guidelines and state-of-the-art gene signatures./Cette thèse concerne le développement de techniques d'apprentissage (machine learning) afin de mettre au point de nouveaux outils cliniques basés sur des données moleculaires. Nous avons focalisé notre recherche sur le cancer du sein, un des cancers les plus fréquemment diagnostiqués. Ces outils sont développés dans le but d'aider les médecins dans leur évaluation du devenir clinique des patients cancéreux (cf. le pronostique). Les approches traditionnelles d'évaluation du pronostique d'un patient cancéreux se base sur des critères clinico-pathologiques connus pour être prédictifs de la survie. Cette évaluation permet aux médecins de décider si un traitement est nécessaire après l'extraction de la tumeur. Bien que les outils d'évaluation traditionnels sont d'une aide importante, les cliniciens sont conscients de la nécessité d'améliorer de tels outils. Dans les années 90, de nouvelles technologies à haut-débit, telles que le profilage de l'expression génique par biopuces à ADN (microarrays), ont été mises au point afin de permettre aux scientifiques d'analyser l'expression de l'entièreté du génôme de cellules cancéreuses. Ce nouveau type de données moléculaires porte l'espoir d'améliorer les outils pronostiques traditionnels et d'approfondir nos connaissances concernant la génèse du cancer du sein. Cependant ces données sont extrêmement difficiles à analyser à cause (i) de leur haute dimensionalité (plusieurs dizaines de milliers de gènes pour seulement quelques centaines d'expériences); (ii) du bruit important dans les mesures; (iii) de la collinéarité entre les mesures dûe à la co-expression des gènes. Depuis 2002, des études comparatives à grande échelle ont permis d'identifier les méthodes performantes pour l'analyse de groupements et la classification de données microarray, négligeant l'analyse de survie pertinente pour le pronostique dans le cancer du sein. Pour pallier ce manque, cette thèse présente une méthodologie originale adaptée à l'analyse de données microarray et de survie afin de construire des modèles pronostiques performants et robustes. En termes d'applications, nous montrons que cette méthodologie, utilisée en combinaison avec des connaissances biologiques a priori et de nombreux ensembles de données publiques, a permis d'importantes découvertes. En particulier, il résulte de la recherche presentée dans cette thèse, le développement d'un modèle robuste d'identification des sous-types moléculaires du cancer du sein et de plusieurs signatures géniques améliorant significativement l'état de l'art au niveau pronostique.
15

Définitions et caractérisations de modèles à base d'analogies pour l'apprentissage automatique des langues naturelles /

Stroppa, Nicolas. January 1900 (has links)
Thèse de doctorat--Informatique et réseaux--Paris--ENST, 2005. / Bibliogr. p. 163-173. Index. Résumé en français et en anglais.
16

Autonomous systems : a cognitive oriented approach applied to mobile robotics /

Ahle, Elmar. January 2007 (has links)
Dissertation--Duisburg-Essen--Universität Duisburg-Essen, 2007.
17

Dynamique et plasticité dans les réseaux de neurones à impulsions étude du couplage temporel réseau / agent / environnement /

Soula, Hédi Favrel, Joel. Beslon, Guillaume. January 2005 (has links)
Thèse doctorat : Informatique : Villeurbanne, INSA : 2005. / Titre provenant de l'écran-titre. Bibliogr. , 10 p.
18

Apprentissage automatique de profils de lecteurs

Candillier, Laurent. Gilleron, Rémi. January 2001 (has links) (PDF)
Mémoire de DEA : Informatique : Lille 1 : 2001.
19

Evaluation de la qualité de la représentation en fouille de données

Muhlenbach, Fabrice. Zighed, Djamel Abdelkader Lallich, Stéphane. January 2002 (has links)
Thèse de doctorat : Informatique : Lyon 2 : 2002. / Titre provenant de l'écran-titre. Bibliogr.
20

Découverte de motifs relationnels en bioinformatique application à la prédiction de ponts disulfures /

Jacquemin, Ingrid. Nicolas, Jacques. January 2005 (has links) (PDF)
Thèse doctorat : Informatique. Bioinformatique : Rennes 1 : 2005. / Bibliogr. p. 107-129.

Page generated in 0.0981 seconds