Spelling suggestions: "subject:"apprentissage automatique"" "subject:"dapprentissage automatique""
61 |
Sample Compressed PAC-Bayesian Bounds and learning algorithmsShanian, Sara 18 April 2018 (has links)
Dans le domaine de la classification, les algorithmes d'apprentissage par compression d'échantillons sont des algorithmes qui utilisent les données d'apprentissage disponibles pour construire l'ensemble de classificateurs possibles. Si les données appartiennent seulement à un petit sous-espace de l'espace de toutes les données «possibles», ces algorithmes possédent l'intéressante capacité de ne considérer que les classificateurs qui permettent de distinguer les exemples qui appartiennent à notre domaine d'intérêt. Ceci contraste avec d'autres algorithmes qui doivent considérer l'ensemble des classificateurs avant d'examiner les données d'entraînement. La machine à vecteurs de support (le SVM) est un algorithme d'apprentissage très performant qui peut être considéré comme un algorithme d'apprentissage par compression d'échantillons. Malgré son succès, le SVM est actuellement limité par le fait que sa fonction de similarité doit être un noyau symétrique semi-défini positif. Cette limitation rend le SVM difficilement applicable au cas où on désire utiliser une mesure de similarité quelconque. / In classification, sample compression algorithms are the algorithms that make use of the available training data to construct the set of possible predictors. If the data belongs to only a small subspace of the space of all "possible" data, such algorithms have the interesting ability of considering only the predictors that distinguish examples in our areas of interest. This is in contrast with non sample compressed algorithms which have to consider the set of predictors before seeing the training data. The Support Vector Machine (SVM) is a very successful learning algorithm that can be considered as a sample-compression learning algorithm. Despite its success, the SVM is currently limited by the fact that its similarity function must be a symmetric positive semi-definite kernel. This limitation by design makes SVM hardly applicable for the cases where one would like to be able to use any similarity measure of input example. PAC-Bayesian theory has been shown to be a good starting point for designing learning algorithms. In this thesis, we propose a PAC-Bayes sample-compression approach to kernel methods that can accommodate any bounded similarity function. We show that the support vector classifier is actually a particular case of sample-compressed classifiers known as majority votes of sample-compressed classifiers. We propose two different groups of PAC-Bayesian risk bounds for majority votes of sample-compressed classifiers. The first group of proposed bounds depends on the KL divergence between the prior and the posterior over the set of sample-compressed classifiers. The second group of proposed bounds has the unusual property of having no KL divergence when the posterior is aligned with the prior in some precise way that we define later in this thesis. Finally, for each bound, we provide a new learning algorithm that consists of finding the predictor that minimizes the bound. The computation times of these algorithms are comparable with algorithms like the SVM. We also empirically show that the proposed algorithms are very competitive with the SVM.
|
62 |
Généralisations de la théorie PAC-bayésienne pour l'apprentissage inductif, l'apprentissage transductif et l'adaptation de domaineGermain, Pascal 23 April 2018 (has links)
Tableau d’honneur de la Faculté des études supérieures et postdoctorales, 2015-2016 / En apprentissage automatique, l’approche PAC-bayésienne permet d’obtenir des garanties statistiques sur le risque de votes de majorité pondérés de plusieurs classificateurs (nommés votants). La théorie PAC-bayésienne «classique», initiée par McAllester (1999), étudie le cadre d’apprentissage inductif, sous l’hypothèse que les exemples d’apprentissage sont générés de manière indépendante et qu’ils sont identiquement distribués (i.i.d.) selon une distribution de probabilité inconnue mais fixe. Les contributions de la thèse se divisent en deux parties. Nous présentons d’abord une analyse des votes de majorité, fondée sur l’étude de la marge comme variable aléatoire. Il en découle une conceptualisation originale de la théorie PACbayésienne. Notre approche, très générale, permet de retrouver plusieurs résultats existants pour le cadre d’apprentissage inductif, ainsi que de les relier entre eux. Nous mettons notamment en lumière l’importance de la notion d’espérance de désaccord entre les votants. Bâtissant sur une compréhension approfondie de la théorie PAC-bayésienne, acquise dans le cadre inductif, nous l’étendons ensuite à deux autres cadres d’apprentissage. D’une part, nous étudions le cadre d’apprentissage transductif, dans lequel les descriptions des exemples à classifier sont connues de l’algorithme d’apprentissage. Dans ce contexte, nous formulons des bornes sur le risque du vote de majorité qui améliorent celles de la littérature. D’autre part, nous étudions le cadre de l’adaptation de domaine, dans lequel la distribution génératrice des exemples étiquetés de l’échantillon d’entraînement diffère de la distribution générative des exemples sur lesquels sera employé le classificateur. Grâce à une analyse théorique – qui se révèle être la première approche PAC-bayésienne de ce cadre d’apprentissage –, nous concevons un algorithme d’apprentissage automatique dédié à l’adaptation de domaine. Nos expérimentations empiriques montrent que notre algorithme est compétitif avec l’état de l’art. / In machine learning, the PAC-Bayesian approach provides statistical guarantees on the risk of a weighted majority vote of many classifiers (named voters). The “classical” PAC-Bayesian theory, initiated by McAllester (1999), studies the inductive learning framework under the assumption that the learning examples are independently generated and are identically distributed (i.i.d.) according to an unknown but fixed probability distribution. The thesis contributions are divided in two major parts. First, we present an analysis of majority votes based on the study of the margin as a random variable. It follows a new conceptualization of the PAC-Bayesian theory. Our very general approach allows us to recover several existing results for the inductive PAC-Bayesian framework, and link them in a whole. Among other things, we highlight the notion of expected disagreement between the voters. Building upon an improved understanding of the PAC-Bayesian theory, gained by studying the inductive framework, we then extend it to two other learning frameworks. On the one hand, we study the transductive framework, where the learning algorithm knows the description of the examples to be classified. In this context, we state risk bounds on majority votes that improve those from the current literature. On the other hand, we study the domain adaptation framework, where the generating distribution of the labelled learning examples differs from the generating distribution of the examples to be classified. Our theoretical analysis is the first PAC-Bayesian approach of this learning framework, and allows us to conceive a new machine learning algorithm for domain adaptation. Our empirical experiments show that our algorithm is competitive with other state-of-the-art algorithms.
|
63 |
Apprentissage automatique avec garanties de généralisation à l'aide de méthodes d'ensemble maximisant le désaccordRoy, Jean-Francis 03 May 2018 (has links)
Nous nous intéressons au domaine de l’apprentissage automatique, une branche de l’intelligence artificielle. Pour résoudre une tâche de classification, un algorithme d’apprentissage observe des données étiquetées et a comme objectif d’apprendre une fonction qui sera en mesure de classifier automatiquement les données qui lui seront présentées dans le futur. Plusieurs algorithmes classiques d’apprentissage cherchent à combiner des classificateurs simples en construisant avec ceux-ci un classificateur par vote de majorité. Dans cette thèse, nous explorons l’utilisation d’une borne sur le risque du classificateur par vote de majorité, nommée la C-borne. Celle-ci est définie en fonction de deux quantités : la performance individuelle des votants, et la corrélation de leurs erreurs (leur désaccord). Nous explorons d’une part son utilisation dans des bornes de généralisation des classificateurs par vote de majorité. D’autre part, nous l’étendons de la classification binaire vers un cadre généralisé de votes de majorité. Nous nous en inspirons finalement pour développer de nouveaux algorithmes d’apprentissage automatique, qui offrent des performances comparables aux algorithmes de l’état de l’art, en retournant des votes de majorité qui maximisent le désaccord entre les votants, tout en contrôlant la performance individuelle de ceux-ci. Les garanties de généralisation que nous développons dans cette thèse sont de la famille des bornes PAC-bayésiennes. Nous généralisons celles-ci en introduisant une borne générale, à partir de laquelle peuvent être retrouvées les bornes de la littérature. De cette même borne générale, nous introduisons des bornes de généralisation basées sur la C-borne. Nous simplifions également le processus de preuve des théorèmes PAC-bayésiens, nous permettant d’obtenir deux nouvelles familles de bornes. L’une est basée sur une différente notion de complexité, la divergence de Rényi plutôt que la divergence Kullback-Leibler classique, et l’autre est spécialisée au cadre de l’apprentissage transductif plutôt que l’apprentissage inductif. Les deux algorithmes d’apprentissage que nous introduisons, MinCq et CqBoost, retournent un classificateur par vote de majorité maximisant le désaccord des votants. Un hyperparamètre permet de directement contrôler leur performance individuelle. Ces deux algorithmes étant construits pour minimiser une borne PAC-bayésienne, ils sont rigoureusement justifiés théoriquement. À l’aide d’une évaluation empirique, nous montrons que MinCq et CqBoost ont une performance comparable aux algorithmes classiques de l’état de l’art. / We focus on machine learning, a branch of artificial intelligence. When solving a classification problem, a learning algorithm is provided labelled data and has the task of learning a function that will be able to automatically classify future, unseen data. Many classical learning algorithms are designed to combine simple classifiers by building a weighted majority vote classifier out of them. In this thesis, we extend the usage of the C-bound, bound on the risk of the majority vote classifier. This bound is defined using two quantities : the individual performance of the voters, and the correlation of their errors (their disagreement). First, we design majority vote generalization bounds based on the C-bound. Then, we extend this bound from binary classification to generalized majority votes. Finally, we develop new learning algorithms with state-of-the-art performance, by constructing majority votes that maximize the voters’ disagreement, while controlling their individual performance. The generalization guarantees that we develop in this thesis are in the family of PAC-Bayesian bounds. We generalize the PAC-Bayesian theory by introducing a general theorem, from which the classical bounds from the literature can be recovered. Using this same theorem, we introduce generalization bounds based on the C-bound. We also simplify the proof process of PAC-Bayesian theorems, easing the development of new families of bounds. We introduce two new families of PAC-Bayesian bounds. One is based on a different notion of complexity than usual bounds, the Rényi divergence, instead of the classical Kullback-Leibler divergence. The second family is specialized to transductive learning, instead of inductive learning. The two learning algorithms that we introduce, MinCq and CqBoost, output a majority vote classifier that maximizes the disagreement between voters. An hyperparameter of the algorithms gives a direct control over the individual performance of the voters. These two algorithms being designed to minimize PAC-Bayesian generalization bounds on the risk of the majority vote classifier, they come with rigorous theoretical guarantees. By performing an empirical evaluation, we show that MinCq and CqBoost perform as well as classical stateof- the-art algorithms.
|
64 |
Selective sampling for classificationShanian, Sara 13 April 2018 (has links)
Une des objectifs poursuivis par la recherche en apprentissage automatique est la construction de bons classificateurs à partir d'un ensemble d'exemples étiquetés. Certains problèmes nécessitent de réunir un grand ensemble d'exemples étiquetés, ce qui peut s'avérer long et coûteux. Afin de réduire ces efforts, il est possible d'utiliser les algorithmes d'apprentissage actif. Ces algorithmes tirent profit de la possibilité de faire quelques demandes d'étiquetage parmi un grand ensemble d'exemples non-étiquetés pour construire un classificateur précis. Il est cependant important de préciser que les algorithmes d'apprentissage actif actuels possèdent eux-mêmes quelques points faibles connus qui peuvent les mener à performer inadéquatement dans certaines situations. Dans cette thèse, nous proposons un nouvel algorithme d'apprentissage actif. Notre algorithme atténue certains points faibles des précédents algorithmes d'apprentissage actif, et il se révèle trés compétitif aux algorithmes d'apprentissage actif bien-connus. De plus, notre algorithme est facile à implémenter. / One of the goals of machine learning researches is to build accurate classifiers form an amount of labeled examples. In some problems, it is necessary to gather a large set of labeled examples which can be costly and time-consuming. To reduce these expenses, one can use active learning algorithms. These algorithms benefit from the possibility of performing a small number of label-queries from a large set of unlabeled examples to build an accurate classifier. It should be mentioned that actual active learning algorithms, themselves, have some known weak points which may lead them to perform unsuccessfully in certain situations. In this thesis, we propose a novel active learning algorithm. Our proposed algorithm not only fades the weak points of the previous active learning algorithms, but also performs competitively among the widely known active learning algorithms while it is easy to implement.
|
65 |
Bayesian nonparametric latent variable modelsDallaire, Patrick 24 April 2018 (has links)
L’un des problèmes importants en apprentissage automatique est de déterminer la complexité du modèle à apprendre. Une trop grande complexité mène au surapprentissage, ce qui correspond à trouver des structures qui n’existent pas réellement dans les données, tandis qu’une trop faible complexité mène au sous-apprentissage, c’est-à-dire que l’expressivité du modèle est insuffisante pour capturer l’ensemble des structures présentes dans les données. Pour certains modèles probabilistes, la complexité du modèle se traduit par l’introduction d’une ou plusieurs variables cachées dont le rôle est d’expliquer le processus génératif des données. Il existe diverses approches permettant d’identifier le nombre approprié de variables cachées d’un modèle. Cette thèse s’intéresse aux méthodes Bayésiennes nonparamétriques permettant de déterminer le nombre de variables cachées à utiliser ainsi que leur dimensionnalité. La popularisation des statistiques Bayésiennes nonparamétriques au sein de la communauté de l’apprentissage automatique est assez récente. Leur principal attrait vient du fait qu’elles offrent des modèles hautement flexibles et dont la complexité s’ajuste proportionnellement à la quantité de données disponibles. Au cours des dernières années, la recherche sur les méthodes d’apprentissage Bayésiennes nonparamétriques a porté sur trois aspects principaux : la construction de nouveaux modèles, le développement d’algorithmes d’inférence et les applications. Cette thèse présente nos contributions à ces trois sujets de recherches dans le contexte d’apprentissage de modèles à variables cachées. Dans un premier temps, nous introduisons le Pitman-Yor process mixture of Gaussians, un modèle permettant l’apprentissage de mélanges infinis de Gaussiennes. Nous présentons aussi un algorithme d’inférence permettant de découvrir les composantes cachées du modèle que nous évaluons sur deux applications concrètes de robotique. Nos résultats démontrent que l’approche proposée surpasse en performance et en flexibilité les approches classiques d’apprentissage. Dans un deuxième temps, nous proposons l’extended cascading Indian buffet process, un modèle servant de distribution de probabilité a priori sur l’espace des graphes dirigés acycliques. Dans le contexte de réseaux Bayésien, ce prior permet d’identifier à la fois la présence de variables cachées et la structure du réseau parmi celles-ci. Un algorithme d’inférence Monte Carlo par chaîne de Markov est utilisé pour l’évaluation sur des problèmes d’identification de structures et d’estimation de densités. Dans un dernier temps, nous proposons le Indian chefs process, un modèle plus général que l’extended cascading Indian buffet process servant à l’apprentissage de graphes et d’ordres. L’avantage du nouveau modèle est qu’il admet les connections entres les variables observables et qu’il prend en compte l’ordre des variables. Nous présentons un algorithme d’inférence Monte Carlo par chaîne de Markov avec saut réversible permettant l’apprentissage conjoint de graphes et d’ordres. L’évaluation est faite sur des problèmes d’estimations de densité et de test d’indépendance. Ce modèle est le premier modèle Bayésien nonparamétrique permettant d’apprendre des réseaux Bayésiens disposant d’une structure complètement arbitraire. / One of the important problems in machine learning is determining the complexity of the model to learn. Too much complexity leads to overfitting, which finds structures that do not actually exist in the data, while too low complexity leads to underfitting, which means that the expressiveness of the model is insufficient to capture all the structures present in the data. For some probabilistic models, the complexity depends on the introduction of one or more latent variables whose role is to explain the generative process of the data. There are various approaches to identify the appropriate number of latent variables of a model. This thesis covers various Bayesian nonparametric methods capable of determining the number of latent variables to be used and their dimensionality. The popularization of Bayesian nonparametric statistics in the machine learning community is fairly recent. Their main attraction is the fact that they offer highly flexible models and their complexity scales appropriately with the amount of available data. In recent years, research on Bayesian nonparametric learning methods have focused on three main aspects: the construction of new models, the development of inference algorithms and new applications. This thesis presents our contributions to these three topics of research in the context of learning latent variables models. Firstly, we introduce the Pitman-Yor process mixture of Gaussians, a model for learning infinite mixtures of Gaussians. We also present an inference algorithm to discover the latent components of the model and we evaluate it on two practical robotics applications. Our results demonstrate that the proposed approach outperforms, both in performance and flexibility, the traditional learning approaches. Secondly, we propose the extended cascading Indian buffet process, a Bayesian nonparametric probability distribution on the space of directed acyclic graphs. In the context of Bayesian networks, this prior is used to identify the presence of latent variables and the network structure among them. A Markov Chain Monte Carlo inference algorithm is presented and evaluated on structure identification problems and as well as density estimation problems. Lastly, we propose the Indian chefs process, a model more general than the extended cascading Indian buffet process for learning graphs and orders. The advantage of the new model is that it accepts connections among observable variables and it takes into account the order of the variables. We also present a reversible jump Markov Chain Monte Carlo inference algorithm which jointly learns graphs and orders. Experiments are conducted on density estimation problems and testing independence hypotheses. This model is the first Bayesian nonparametric model capable of learning Bayesian learning networks with completely arbitrary graph structures.
|
66 |
A General Machine Reading Comprehension pipelineDebruyker, Roxane 13 December 2023 (has links)
Savoir lire est une compétence qui va de la capacité à décoder des caractères à la compréhension profonde du sens de textes. Avec l'émergence de l'intelligence artificielle, deux questions se posent : Comment peut-on apprendre à une intelligence artificielle à lire? Qu'est-ce que cela implique? En essayant de répondre à ces questions, une première évidence nous est rappelée : savoir lire ne peut pas se réduire à savoir répondre à des questions sur des textes. Étant donné que les modèles d'apprentissage machine apprennent avec des exemples d'essai erreur, ils vont apprendre à lire en apprenant à répondre correctement à des questions sur des textes. Cependant, il ne faut pas perdre de vue que savoir lire, c'est comprendre différents types de textes et c'est cette compréhension qui permet de répondre à des questions sur un texte. En d'autres termes, répondre à des questions sur des textes est un des moyens d'évaluation de la compétence de lecture plus qu'une fin en soi. Aujourd'hui, il existe différents types de jeux de données qui sont utilisées pour apprendre à des intelligences artificielles à apprendre à lire. Celles ci proposent des textes avec des questions associées qui requièrent différents types de raisonnement : associations lexicales, déductions à partir d'indices disséminés dans le texte, paraphrase, etc. Le problème est que lorsqu'une intelligence artificielle apprend à partir d'un seul de ces jeux de données, elle n'apprend pas à lire mais est plutôt formée à répondre à un type de question, sur un certain type de texte et avec un certain style d'écriture. Outre la problématique de la généralisation des compétences de lecture, les modèles d'intelligence artificielle qui apprennent à lire en apprenant à répondre à des questions retournent des réponses sans systématiquement indiquer sur quelles phrases du texte sources ils se basent. Cela pose un problème d'explicabilité et peut entrainer une mécompréhension des capacités de ces modèles. Dans ce mémoire, nous proposons de résoudre le problème de généralisation de l'apprentissage en proposant une méthodologie générale adaptée à n'importe quel jeu de données. Ainsi, en ayant une méthodologie commune à tous les types de jeux de données pour apprendre à répondre à tout type de question, sur tout type de texte, nous pourrions apprendre aux modèles d'intelligence artificielle à se concentrer sur les compétences générales de lecture plutôt que sur la capacité spécifique à répondre aux questions. Afin de résoudre également le problème de l'explicabilité, la méthodologie que nous proposons impose à tout modèle de compréhension de lecture automatique de renvoyer les extraits du texte source sur lequel ces réponses sont basées. / Reading is a skill that ranges from the ability to decode characters to a deep understanding of the meaning of a text. With the emergence of artificial intelligence, two questions arise: How can an artificial intelligence be taught to read? What does this imply? In trying to answer these questions, we are reminded of the obvious: knowing how to read cannot be reduced to knowing how to answer questions about texts. Since machine learning models learn with trial-and-error examples, they will learn to read by learning to answer correctly questions about the text they read. However, one should not forget the fact that knowing how to read means understanding different types of texts sufficiently well, and it is this that enables answering questions about a text. In other words, answering questions about texts is one of the means of assessing reading skills rather than an end in itself. Today, there are different types of datasets that are used to teach artificial intelligences to learn to read. These provide texts with associated questions that require different types of reasoning: lexical associations, deductions from discrete clues in the text, paraphrasing, etc. The problem is that when an artificial intelligence learns from only one of these datasets, it does not learn to read but is instead trained to answer a certain type of question, on a certain type of text and with a certain writing style. In addition to the problem of generalizing reading skills, artificial intelligence models that learn to read by learning to answer questions return answers without systematically indicating which sentences in the source text they are based on. This poses a problem of explicability and can lead to a misunderstanding of the capabilities of these models. In this thesis, we propose to solve the generalization issue of learning from one dataset by proposing a general methodology suiting to any machine reading comprehension dataset. Thus, by having a methodology common to all types of datasets to learn how to answer any type of question, on any type of text, we could teach artificial intelligence models to focus on general reading skills rather than on the specific ability to answer questions. In order to also solve the issue of explanability, the methodology we propose impose any machine reading comprehension model to return the span of the source text its answers are based on.
|
67 |
Développement d'outils bioinformatiques et de méthodologies d'apprentissage machine pour une meilleure compréhension des éléments génétiques sous-jacents à la susceptibilité au cancer du seinLemaçon, Audrey 10 July 2019 (has links)
Le cancer du sein est l'une des principales causes de décès par cancer chez les Canadiennes (1 sur 8 le développera au cours de sa vie et 1 sur 31 en décédera). Les études suggèrent que la majorité des cancers du sein se développent dans une faible portion de femmes ayant une susceptibilité génétique à la maladie. L'évaluation personnalisée de ce risque étant basée sur la conviction que la population peut se diviser en plusieurs groupes selon le risque génétique individuel inhérent, il est indispensable d'identier les acteurs responsables de cette susceptibilit é génétique pour pouvoir offrir, à ces femmes à risque, des mesures préventives adaptées à leur risque. Ainsi, depuis la découverte des gènes associés au cancer du sein, BRCA1 en 1994 et BRCA2 en 1995, d'énormes efforts ont été fournis an d'identier les éléments génétiques sous-jacents au risque du cancer du sein et de nombreuses autres mutations délétères ont été découvertes dans des gènes de susceptibilité tels que PTEN, PALB2 ou CHEK2. Malheureusement, malgr é les efforts engagés dans cette recherche, les gènes/loci de susceptibilité connus à ce jour n'expliquent qu'environ la moitié du risque génétique liée à cette maladie. Conscients des enjeux, de nombreux groupes d'études internationaux se sont associés en consortiums tels que le Breast Cancer Association Consortium (BCAC) ou le Consortium of Investigators of Modi ers of BRCA1/2 (CIMBA), an d'unir leur ressources pour l'identication de ce qu'on a appelé "l'héritabilité manquante" du cancer du sein. Plusieurs hypothèses ont été formulées quant aux sources de cette héritabilité manquante et, parmi ces hypothèses, nous en avons exploré deux. Dans un premier temps, nous avons testé l'hypothèse selon laquelle il resterait de nombreux variants génétiques communs de faible pénétrance à découvrir à travers une vaste étude d'association pangénomique réalisée dans le cadre de l'OncoArray Network. Dans un second temps, nous avons testé l'hypothèse selon laquelle des variants, plus rares mais de pénétrance plus forte, seraient à découvrir dans les régions codantes du génome, à travers l'évaluation du potentiel prédictif de ces variants via une approche innovante d'analyse de données d'exomes. Ainsi, nous avons pu démontrer la véracité de la première hypothèse par la découverte de 65 nouveaux locus associés à la susceptibilité au cancer du sein global. De plus, ces travaux ayant mis en lumière des besoins en terme d'assistance à l'analyse des signaux d'association, nous avons développé deux outils d'aide à la priorisation des variants génétiques humains. Enn, la seconde hypothèse a été testée à travers le développement d'une nouvelle méthodologie multi-étapes, combinant l'analyse de génotypes et d'haplotypes. Cette approche, mettant à prot la puissance de l'apprentissage machine, a permis d'identier des nouveaux marqueurs (variants individuels ou combinés dans des haplotypes) codants potentiellement associés au phénotype. Pour les locus de susceptibilité comme pour les gènes candidats identiés lors de l'analyse des données d'exomes, il sera indispensable de conrmer leur implication ainsi que l'ampleur de leurs effets sur des cohortes externes de grande taille et puis procéder à leur caractérisation fonctionnelle. Si ces derniers sont validés, ils pourront alors être intégrés aux outils actuels de prédiction du risque du cancer du sein et favoriser ainsi une prise en charge précoce et la prescription d'interventions thérapeutiques mieux adaptées pour les femmes à risque. / Breast cancer is one of the leading causes of death from cancer among Canadian women (about 1 in 8 Canadian women will develop breast cancer during her lifetime and 1 in 31 will die from the disease). Evidence suggests that most breast cancer cases develop in a small proportion of women with a genetic susceptibility to the disease. Since the personalized assessment of this risk is based on the certainty that women can be divided into several groups according to their inherent genetic risk, it is essential to identify the actors responsible for this genetic susceptibility to breast cancer in order to offer these at-risk women, personalized preventive measures. Thus, since the discovery of the associated genes BRCA1 in 1994 and BRCA2 in 1995, tremendous efforts have been made to identify the genetic components underlying breast cancer risk and many other deleterious mutations have been uncovered in susceptibility genes such as PTEN, PALB2 or CHEK2. Unfortunately, despite these efforts, the susceptibility genes/loci known to date only explain about half of the genetic risk associated with this disease. Acknowledging the challenges, many international groups have partnered in consortia such as the Breast Cancer Consortium (BCAC) or the Consortium of Investigators of Modiers of BRCA1/2 (CIMBA) to join their resources for the identication of what has been called breast cancer "missing heritability". Several hypotheses have been formulated as to the sources of this missing heritability and, among these hypotheses, we have explored two. First, we tested the hypothesis of many common low penetrance genetic variants still to be discovered through a large genome-wide association study conducted within the OncoArray Network. In a second step, we tested the hypothesis according to which rarer variants of higher penetrance, could be discovered in the coding regions of the genome, through the evaluation of the predictive power of these variants by an innovative approach of exomes data analysis. Thus, we were able to demonstrate the veracity of the rst hypothesis by the discovery of 65 new loci associated with overall breast cancer susceptibility. In addition, these studies having highlighted the need for assistance tools for prioritization analysis, we developed two softwares to help prioritize human genetic variants. Finally, we developed a new multi-step methodology, combining the analysis of genotypes and haplotypes in order to assess the predictive power of coding variants. This approach, taking advantage of the power of machine learning, enabled the identication of new credible coding markers (variants alone or combined into haplotypes), signicantly associated with the phenotype. For susceptibility loci as well as for candidate genes identied during the analysis of exome data, it will be essential to conrm their involvement and effect size on large external sample sets and then perform their functional characterization. If they are validated, their integration into current risk prediction tools could help promote early management and well-calibrated therapeutic interventions for at-risk women.
|
68 |
Quantitative assessment of synaptic plasticity at the molecular scale with multimodal microscopy and computational toolsWiesner, Theresa 11 November 2023 (has links)
L'apprentissage et la mémoire aux niveaux cellulaire et moléculaire se caractérisent par la modulation de la force synaptique en recrutant et relocalisant des protéines synaptiques à l'échelle nanométrique. La plupart des études portant sur les mécanismes de la plasticité synaptique se sont concentrées sur des synapses spécifiques, manquant ainsi d'une vue d'ensemble de la diversité des changements de force synaptique et de la réorganisation des protéines dans les circuits neuronaux. Nous utilisons une combinaison d'imagerie fonctionnelle et à super résolution dans des cultures dissociées d'hippocampe et des outils d'intelligence artificielle pour classifier la diversité de synapses en fonction de leurs caractéristiques fonctionnelles et organisationnelles. Nous avons mesuré l'activité synaptique en utilisant la microscopie à grand champ pour enregistrer des événements calciques dans des neurones exprimant le senseur calcique fluorescent GCaMP6f. Nous avons développé une approche d'apprentissage profond pour détecter et segmenter ces événements calciques. Nous montrons la modulation de l'amplitude et de la fréquence des événements calciques en fonction de l'activité neuronale. En outre, nous avons classifié les synapses actives et nous avons identifié un recrutement différentiel de certains types de synapses en fonction du paradigme de plasticité utilisé. Comme l'organisation des protéines synaptiques à l'intérieur de domaines nanométriques des synapses joue un rôle central dans la force et la plasticité synaptiques, nous résolvons l'organisation des protéines d'échafaudage présynaptiques (Bassoon, RIM1/2) et postsynaptiques (PSD95, Homer1c) en utilisant la nanoscopie STED (Déplétion par émission stimulée). Nous avons quantifié l'organisation synaptique à l'aide d'une analyse statistique de la distance entre objets basée sur Python (pySODA). Nous montrons que les stimuli induisant la plasticité modifient de manière différentielle l'organisation de ces protéines. En particulier, les protéines PSD95 et Bassoon présentent un changement d'organisation dépendant d'un traitement induisant une potentiation synaptique ou une dépression synaptique. De plus, à l'aide d'approches d'apprentissage automatique non supervisées, nous révélons la riche diversité des sous-types de protéines synaptiques présentant un remodelage différentiel. Pour étudier le lien entre l'architecture des protéines synaptiques et la force synaptique, nous avons combiné l'imagerie fonctionnelle et l'imagerie à super-résolution. Nous avons donc utilisé une approche d'apprentissage automatique pour optimiser les paramètres d'imagerie des cellules vivantes pour l'imagerie à haute résolution et nous avons combiné cela avec l'optimisation des paramètres de déblocage du glutamate pour sonder les signaux calciques correspondants. Notre approche permet de caractériser la population de synapses en fonction de leur taux d'activité et de leur organisation de protéines synaptiques et devrait fournir une base pour explorer davantage les divers mécanismes moléculaires de la plasticité synaptique. / Learning and memory at the cellular and molecular levels are characterized by modulation of synaptic strength, involving the recruitment and re-localization of proteins within specific nanoscale synaptic domains. Most studies investigating the mechanisms of synaptic plasticity have been focussed on specific synapses, lacking a broad view of the diversity of synaptic changes in strength and protein re-organization across neural circuits. We use a combination of functional and super-resolution optical imaging in dissociated hippocampal cultures and artificial intelligence tools to classify the diversity of synapses, based on their functional and organizational characteristics. We measured synaptic activity using wide field microscopy to record miniature synaptic calcium transients (MSCTs) in neurons expressing the fluorescent calcium sensor GCaMP6f. We developed a deep learning approach to detect and segment these calcium events. Our results show that the amplitude and frequency of miniature calcium events are modulated by prior levels of circuit activity. In addition, we classified active synapses and identify differential recruitment of certain calcium dynamics depending on the plasticity paradigm used. To link the nanoscale organization of synaptic proteins with synaptic strength and plasticity, we optically resolved the organization of presynaptic (Bassoon, RIM1/2) and postsynaptic (PSD95, Homer1c) scaffolding proteins using STED (Stimulated Emission Depletion) nanoscopy. Using Python-based statistical object distance analysis (pySODA), we show that plasticity-inducing stimuli differentially alter the spatial organization of these proteins. In particular, PSD95 and Bassoon proteins show a treatment-dependent change in organization, associated either with synaptic potentiation or depression. Furthermore, using unsupervised machine learning approaches, we reveal the rich diversity of synaptic protein subtypes exhibiting differential remodeling. To investigate further the link between synaptic protein architecture and synaptic function, we aimed to combine functional and super-resolution imaging. We therefore used a machine learning approach to optimize live-cell imaging parameters for time-lapse imaging and combined this with the optimization of glutamate uncaging parameters to probe corresponding calcium signals. Our approach allows to characterize the population of synapses in terms of their activity rate and synaptic protein organization, providing a basis for further exploring the diverse molecular mechanisms of synaptic plasticity.
|
69 |
Développement et utilisation d'un simulateur de microscopie STED pour l'apprentissage machineTurcotte, Benoît 09 October 2024 (has links)
Les techniques d'apprentissage machine se posent de plus en plus comme des outils importants pour l'automatisation de diverses tâches, allant de tâches de contrôle à des tâches d'analyse de données. Le domaine de la microscopie à fluorescence est aussi un domaine qui avance rapidement, avec de plus en plus de techniques de fine pointe à super-résolution permettant de résoudre des structures biologiques de plus en plus petites. Or, l'expertise requise pour générer de bonnes acquisitions peut sembler une épreuve difficile à surmonter, ce qui peut limiter l'application de ces techniques. Il y a donc un intérêt croissant à utiliser des techniques d'apprentissage machine pour assister le microscopiste, ou même contrôler les acquisitions. Mon projet consiste au développement d'outils qui facilitent l'entrainement des méthodes d'apprentissage machine. Vu la quantité importante de données nécessaires pour entrainer ces méthodes, il est d'intérêt de développer des outils permettant de générer des données d'entrainement. Dans cette optique, pySTED, un simulateur de microscopie de super-résolution STED a été développé. Le simulateur permet de générer des données synthétiques d'images STED, ce qui pourrait permettre d'augmenter des jeux de données. Additionnellement, pySTED a été développé dans le but de permettre l'entrainement d'agents d'apprentissage par renforcement en simulation, dans le but éventuel de déployer ces agents pour contrôler un vrai microscope STED. Les résultats obtenus témoignent de l'utilité d'avoir un simulateur pour l'entrainement d'algorithmes d'apprentissage machine. En effet, le nombre de données requises en entrainement démontre l'importance du simulateur dans un domaine où l'acquisition de données peut être couteuse. / Machine learning techniques are increasingly emerging as important tools for automating a variety of tasks, from control tasks to data analysis. Fluorescence microscopy is also a fast-moving field, with more and more cutting-edge, super-resolution techniques making it possible to resolve ever-smaller biological structures. However, the expertise required to generate good acquisitions can be difficult to acquire, which can limit the application of these techniques. There is therefore growing interest in using machine learning techniques to assist the microscopist, or even control acquisitions. My project involves the development of tools to facilitate the training of machine learning methods. Given the large amount of data needed to train these methods, it is of interest to develop tools for generating training data. With this in mind, pySTED, the STED super-resolution microscopy simulator, has been developed. The simulator can be used to generate synthetic data from STED images, which could be used to augment datasets. In addition, pySTED has been developed to enable the training of reinforcement learning agents in simulation, with the eventual aim of deploying these agents to control a real STED microscope. The results of this work demonstrate the difficulty and importance of using a simulator to train machine learning methods. Indeed, the amount of data required to train machine learning models highlights the importance of having access to a simulation platform for domains where data acquisition can be costly.
|
70 |
Optimizing energy management and routes for electric vehicules using machine learning and optimizationDeschênes, Anthony 16 December 2024 (has links)
This thesis presents machine learning and combinatorial optimization approaches to solve problems related to electric and hybrid electric vehicles. The combinatorial optimization problems are designed to take as input predictions that can be made by one or more machine learning models. For instance, machine learning-based approaches are proposed to predict the energy consumption of an electric vehicle for a given route and to predict the fast-charging duration of an electric vehicle. Various combinatorial problems are then presented, such as the Fixed Route Electric Vehicle Charging Problem with NonLinear Energy Management, and these problems are solved using algorithms based on Mixed-Integer Linear Programming and dynamic programming. The first problem involves predicting the energy consumption of an electric vehicle based on empirical data. This data comes from an industrial partner, Téo Taxi, and represents real taxi rides. To make this prediction, we use a hybrid model between machine learning and a theoretical model. We then show that the hybrid model performs the best compared to the theoretical model and the machine learning models. We also address the problem of predicting the energy consumption of a new vehicle for which we do not yet have data. The second problem involves predicting the fast-charging duration of an electric vehicle using empirical data. This data also comes from an industrial partner, AddÉnergie, and represents charging sessions performed by real users across Canada. This means that we have data for a wide variety of temperatures, which is known to have a significant impact on the charging duration of an electric vehicle. Different supervised learning models are tested, such as random forest and neural networks. Various variants of each model are also explored. The hyperparameters of the different models are then determined using Bayesian Optimization, with particular attention to the structure of the neural networks. We demonstrate that neural networks, especially when using data augmentation to balance the amount of data per vehicle type, achieve the best results. The third and fourth problems involve developing combinatorial optimization models to optimize an electric vehicle route. The goal is to decide where to stop and the speed to drive on each leg in order to reach the destination as quickly as possible. We propose two algorithms to solve this problem: one based on Mixed-Integer Linear Programming and the other based on dynamic programming. We then demonstrate that the approach based on dynamic programming achieves the best performance. Finally, the fifth and sixth problems involve developing combinatorial optimization models for the energy management of a hybrid electric aircraft. This problem requires deciding the amount of fuel and electricity to take at each terminal as well as how to use the energy across different legs of the route with the overall goal of minimizing total costs. We also propose dynamic programming and Mixed-Integer Linear Programming algorithms to solve this problem. / Cette thèse présente des approches d'apprentissage automatique et d'optimisation combinatoire pour résoudre des problèmes en lien avec les véhicules électriques et hybrides électriques. Les problèmes d'optimisation combinatoire sont conçus pour prendre en entrée des prédictions pouvant être émises par un ou plusieurs modèles d'apprentissage automatique. Par exemple, des approches basées sur l'apprentissage automatique sont proposées pour prédire la consommation électrique d'un véhicule électrique pour un itinéraire donné ainsi que pour prédire le temps de recharge rapide d'un véhicule électrique. Différents problèmes d'optimisation combinatoires sont ensuite présentés, comme le Fixed Route Electric Vehicle Charging Problem with NonLinear Energy Management, et ces problèmes sont résolus grâce à des algorithmes basés sur la programmation linéaire mixte ainsi que la programmation dynamique. Le premier problème consiste à prédire la consommation d'un véhicule électrique à partir de données empiriques. Ces données viennent d'un partenaire industriel, TÉO Taxi, et représentent de vraies courses de taxi. Pour faire cette prédiction, nous utilisons un modèle hybride entre l'apprentissage automatique et un modèle théorique. Nous montrons ensuite que le modèle hybride est celui qui performe le mieux en comparaison avec le modèle théorique et les modèles d'apprentissage automatique seuls. Nous nous attaquons également à la prédiction de la consommation pour un nouveau véhicule pour lequel nous n'aurions pas encore de données. Le deuxième problème consiste à prédire le temps de recharge rapide d'un véhicule électrique à partir de données empiriques. Ces données viennent également d'un partenaire industriel, AddÉnergie, et représentent des séances de recharge faites par de vrais utilisateurs partout au Canada. Cela implique donc que nous avons des données pour une grande variété de températures, qui est connue pour avoir un grand impact sur la durée de recharge d'un véhicule électrique. Différents modèles d'apprentissage supervisé sont testés, comme les forêts aléatoires et les réseaux de neurones. Différentes variantes de chaque modèle sont également explorées. Les hyperparamètres des différents modèles sont ensuite déterminés en utilisant l'optimisation bayésienne, avec une attention particulière sur la structure des réseaux de neurones. Nous démontrons finalement que les réseaux de neurones, particulièrement lorsque nous utilisons l'augmentation de données pour équilibrer le nombre de données par type de véhicule, obtiennent les meilleurs résultats. Les troisième et quatrième problèmes consistent à développer des modèles d'optimisation combinatoire pour optimiser un itinéraire en véhicule électrique. L'objectif est de décider à quel endroit s'arrêter ainsi que la vitesse à rouler pour atteindre la destination le plus rapidement possible. Nous proposons deux algorithmes pour résoudre ce problème : un basé sur la programmation linéaire mixte et un autre basé sur la programmation dynamique. Nous démontrons ensuite que l'approche basée sur la programmation dynamique obtient les meilleures performances. Finalement, les cinquième et sixième problèmes consistent à développer des modèles d'optimisation combinatoire pour le problème de gestion de l'énergie d'un aéronef hybride électrique. Ce problème consiste à décider la quantité de carburant et d'électricité à prendre à chaque terminal ainsi qu'à décider comment utiliser l'énergie sur les différents segments de la route dans l'objectif de minimiser les coûts totaux. Nous proposons également des algorithmes de programmation dynamique et de programmation linéaire mixte pour résoudre ce problème.
|
Page generated in 0.1747 seconds