• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 254
  • 254
  • 51
  • 3
  • 2
  • 1
  • 1
  • Tagged with
  • 578
  • 578
  • 378
  • 365
  • 118
  • 118
  • 115
  • 105
  • 98
  • 94
  • 90
  • 90
  • 89
  • 73
  • 70
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Méthodes d'apprentissage automatique pour l'étude et la conservation de la faune sauvage

Villeneuve, Catherine 16 May 2024 (has links)
Les technologies pertinentes à l'étude et à la conservation de la faune sauvage ont connu des progrès fulgurants dans les dernières décennies. Les dispositifs tels que les systèmes de positionnement global, les satellites ou encore les pièges photographiques permettent d'étudier l'écologie animale à des échelles jusqu'alors inespérées, et facilitent la transformation des connaissances en des mesures concrètes de conservation. Les méthodes d'analyse et de modélisation utilisées dans ces contextes n'ont toutefois pas évolué au même rythme que les données ont pu gagner en complexité et en granularité. Ce mémoire s'intéresse à l'exploration du potentiel applicatif de l'apprentissage automatique pour répondre à cet enjeu, notamment dans les domaines de l'écologie des populations, de l'écologie du mouvement et de l'écologie du comportement. Dans un premier lieu, un pipeline à base d'apprentissage automatique combinant apprentissage profond, approximation de fonctions, algorithmes de regroupement et connaissances d'experts est proposé afin d'inférer, à partir d'une seule image satellite, la population d'oies des neiges, de harfangs des neiges et de lemmings de l'île Bylot (Nunavut). Par la suite, des protocoles novateurs permettant d'évaluer et de calibrer des modèles de mouvement animal, incluant ceux basés sur des algorithmes d'apprentissage automatique, sont introduits. Ces derniers reposent sur de nouvelles métriques basées sur la théorie du transport optimal, une branche des mathématiques appliquées. La pertinence des protocoles introduits est notamment révélée à travers une étude à large échelle comparant divers modèles de mouvement du renard arctique. Enfin, une méthodologie en mesure d'identifier automatiquement des comportements clés de l'éléphant d'Afrique est présentée. Cette méthodologie, combinant l'apprentissage automatique à la science des réseaux, tire profit des patrons géométriques associés aux comportements d'intérêt afin d'être en mesure d'apprendre à partir de peu de données, et de pouvoir être calibrée et déployée dans des environnements où les ressources matérielles sont très limitées. / Technologies relevant to wildlife study and conservation have made lightning fast progress in recent decades. Devices such as global positioning systems, satellites and camera traps are facilitating the study of animal ecology at previously unthinkable scales, and are helping to translate scientific knowledge into practical conservation actions. However, the analytical and modeling approaches used in these contexts have not kept pace with the increasing complexity and granularity of ecological data. This master thesis explores the potential of machine learning to address this challenge, notably in the fields of population ecology, movement ecology and behavioral ecology. A machine learning-based pipeline combining deep learning, function approximation, clustering algorithms and expert knowledge is first introduced to infer, from a single satellite image, the population of snow geese, snowy owls and lemmings on Bylot Island (Nunavut). Subsequently, innovative protocols for the evaluation and calibration of animal movement models, including those based on machine learning algorithms, are introduced. These protocols rely on optimal transport-based metrics, a field of applied mathematics. The relevance of the introduced protocols are demonstrated through a large-scale study comparing various Arctic fox movement models. Finally, a method that can automatically identify key African elephant behaviors is presented. By combining machine learning with network science, this method leverages the geometric patterns embedded in the behaviors of interest in order to learn from very little data, as well as to be able to be calibrated and deployed in environments where hardware resources are highly limited.
62

Nouveaux algorithmes d'apprentissage pour classificateurs de type SCM

Choquette, Philippe 13 April 2018 (has links)
Dans le cadre de l'apprentissage automatique supervisé, un des outils disponibles pour la classification binaire est la Set Covering Machine (SCM). Rapidement construite et en général très performante, elle n'est cependant pas systématiquement infaillible. Il existe encore, à ce jour, une marge pour une amélioration. Ce mémoire présente deux nouvelles façons de construire des SCM. Ces algorithmes sont décrits, expliqués et leur performance est analysée. La première façon est de minimiser une approximation d'une borne sur le risque à l'aide d'un branch-and-bound. La deuxième est d'utiliser le bagging. Lors des tests, les nouveaux classificateurs se sont montrés aussi performants que les SCM originales. Nous avons découvert que celles-ci sont soit déjà optimales au sens du critère utilisé pour le branch-and-bound, soit aussi performantes que les SCM optimales. / In the supervised machine learning field, one of the available tools for binary classification is the Set Covering Machine (SCM). Quickly built and generally having high performance, it's however not proven that they always give optimal results. There is still, to date, a margin for improvement. This study presents two new ways of building SCM. Theses algorithms are described, explained and their performance is analyzed. The first way is to minimize an approximated bound on the risk with a branch-and-bound. The second is using bagging. The new classifiers had the same test-set performance than the original SCM. We discovered that the latter are either already optimal according to the branch-and-bound criterion or having the same performance as the optimal SCM.
63

Est-ce que l'apprentissage automatique permet de prédire un comportement en nutrition?

Côté, Melina 13 December 2023 (has links)
L'apprentissage automatique (AA) a permis des progrès inégalés en nutrition, notamment dans les domaines de l'évaluation alimentaire, du traitement de données massives associées aux sciences « omiques », de l'analyse des médias sociaux et de la prédiction du risque de maladie. Toutefois, l'AA n'est pas encore exploité dans le domaine de la prédiction de comportements associés à la saine alimentation. Les interventions et politiques de santé publique en nutrition mises sur pied jusqu'à ce jour ne semblent pas porter fruit puisque les choix et comportements alimentaires au niveau populationnel restent sous-optimaux. Afin de contrer l'épidémie de maladies chroniques qui découle d'une alimentation sous-optimale au Québec, il est essentiel d'identifier les facteurs individuels, sociaux et environnementaux qui déterminent les choix alimentaires de la population. Plusieurs études soutiennent l'idée que les algorithmes d'AA ont une meilleure capacité de prédiction que des modèles statistiques traditionnels, et pourraient donc permettre de mieux documenter les facteurs qui influencent les choix alimentaires de la population. Cependant, d'autres études n'ont rapporté aucune valeur ajoutée de l'utilisation d'algorithmes d'AA pour la prédiction du risque de maladies par rapport à des approches prédictives plus traditionnelles. L'objectif de ce projet de maîtrise était donc de comparer la performance de neuf algorithmes d'AA à celle de deux modèles statistiques traditionnels pour prédire un comportement en nutrition, soit une consommation adéquate de légumes et fruits, à partir de 525 variables individuelles, sociales et environnementales reliées aux habitudes alimentaires. Les résultats de ce mémoire démontrent que les algorithmes d'AA ne prédisent pas mieux la consommation adéquate de légumes et fruits que les modèles statistiques traditionnels. Cependant, étant une des premières études à comparer les algorithmes d'AA à des modèles statistiques traditionnels pour prédire un comportement en nutrition, davantage d'études comparant les deux approches doivent être menées afin d'identifier celles qui nous permettront de mieux documenter les déterminants de la saine alimentation. / Machine learning (ML) has offered unparalleled opportunities of progress in nutrition, including in the fields of dietary assessment, omics data analysis, social media data analysis and diet-related health outcome prediction. However, ML has not yet been explored for the prediction of dietary behaviours. Despite several public health interventions and policies in nutrition, adhering to heathy eating remains a challenge. In order to address the epidemic of chronic disease caused by unhealthy eating habits, it is necessary to better identify the individual, social and environmental determinants of healthy eating in the Quebec population. Many studies demonstrate that ML algorithms predict health outcomes with higher accuracy than traditional statistical models, and thus, could allow better identifying the factors that influence food choices in the Quebec population. However, other studies have reported no added value of using ML algorithms for disease risk prediction compared to traditional approaches. The aim of this master's project was to compare the accuracy of nine ML algorithms and two traditional statistical models to predict adequate vegetable and fruit consumption using a large array of individual, social and environmental variables. The results of this study demonstrate that ML algorithms do not predict adequate vegetable and fruit consumption with higher accuracy than traditional statistical models. However, being one of the first studies to compare ML algorithms and traditional statistical models to predict dietary behaviours, more studies comparing both approaches are needed to determine which models will allow better identifying the determinants of healthy eating.
64

Amélioration du contrôle de qualité de produits sanguins utilisant la spectrométrie de masse à haut-débit et l'apprentissage automatique

Brochu, Francis 29 June 2024 (has links)
Ce mémoire décrit plusieurs travaux concernant le traitement de données et l’analyse de spectres de masse à haut débit. La spectrométrie de masse est une méthode connue de mesure chimique. Appliquée à des échantillons biologiques, la spectrométrie de masse devient alors une technique de mesure métabolomique, c’est-à-dire mesurant l’ensemble des métabolites de l’échantillon, soit les petites molécules composant le fluide biologique et qui interagissent avec le métabolisme. Le projet présenté ici est effectué en partenariat avec Héma-Québec afin de concevoir de nouveaux tests de contrôle de qualité à partir de spectrométrie de masse. L’application de la technologie de la source LDTD à la spectrométrie de masse permet d’acquérir des spectres à haut-débit. Cela représente un bénéfice au coût de l’acquisition des spectres ainsi qu’à la rapidité du processus. On peut ainsi obtenir de grandes quantités de spectres afin de construire des ensembles de données. On peut ensuite appliquer le domaine informatique de l’apprentissage automatique à ces données. On peut utiliser ce domaine afin de classifier les spectres d’échantillons de produits sanguins et fournir des garanties statistiques sur cette classification. L’utilisation d’algorithmes parcimonieux et interprétables peut aussi mener à la découverte de biomarqueurs. Les travaux présentés ici concernent la conception de deux méthodes de traitement des spectres de masse. La première méthode est la correction par masses de verrouillage virtuelles, utilisée pour corriger les biais de mesure uniformes. La seconde est une méthode d’alignement, qui est un outil de correction d’erreurs de lecture. De plus, une nouvelle méthode à noyau, soit une méthode mathématique de comparaison entre des exemples, fut mise au point spécifiquement pour le travail avec des spectres de masse. Finalement, des résultats de classification sur spectres de masse acquis par LDTD et par spectrométrie de masse avec chromatographie liquide sont présentés. / This memoir describes work concerning the treatment and analysis of high-throughput mass spectrometry. Mass spectrometry is a tried and tested method of chemical measurement in a sample. Applied to biological samples, mass spectrometry becomes a metabolomic measurement technique, meaning that it measures the metabolites contained in a sample, which are small molecules present in the biological fluid that interact with the individual’s metabolism. The project that is presented here is a partnership with Hema-Québec in order to conceive new quality control tests from mass spectrometry measurements. The application of the LDTD ionisation source in mass spectrometry makes the acquisition of spectra in high-throughput possible. This represents a large benefit in terms of experimental costs and in time. Large datasets of mass spectra can then be obtained in a short period of time. The computer science domain of machine learning can then be applied to this data. Statistical machine learning can then be used to classify the spectra of blood product samples and provide statistical guarantees on this classification. The use of sparse and interpretable machine learning algorithms can also lead to the discovery of biomarkers. The work presented in this memoir concerns the design of two methods of treatment of mass spectra. The first of these methods is the correction by virtual lock masses, used to correct any uniform shift in the masses in a spectra. The second is a new method of peak alignment used to correct slight measuring errors. In addition, a new kernel method, a method to mathematically compare examples, was designed specifically for application on mass spectra data. Finally, results of classification on mass spectra acquired with an LDTD ionisation source and by liquid chromatography mass spectrometry will be presented.
65

Agnostic Bayes

Lacoste, Alexandre 20 April 2018 (has links)
Tableau d'honneur de la Faculté des études supérieures et postdorales, 2014-2015 / L’apprentissage automatique correspond à la science de l’apprentissage à partir d’exemples. Des algorithmes basés sur cette approche sont aujourd’hui omniprésents. Bien qu’il y ait eu un progrès significatif, ce domaine présente des défis importants. Par exemple, simplement sélectionner la fonction qui correspond le mieux aux données observées n’offre aucune garantie statistiques sur les exemples qui n’ont pas encore été observées. Quelques théories sur l’apprentissage automatique offrent des façons d’aborder ce problème. Parmi ceux-ci, nous présentons la modélisation bayésienne de l’apprentissage automatique et l’approche PACbayésienne pour l’apprentissage automatique dans une vue unifiée pour mettre en évidence d’importantes similarités. Le résultat de cette analyse suggère que de considérer les réponses de l’ensemble des modèles plutôt qu’un seul correspond à un des éléments-clés pour obtenir une bonne performance de généralisation. Malheureusement, cette approche vient avec un coût de calcul élevé, et trouver de bonnes approximations est un sujet de recherche actif. Dans cette thèse, nous présentons une approche novatrice qui peut être appliquée avec un faible coût de calcul sur un large éventail de configurations d’apprentissage automatique. Pour atteindre cet objectif, nous appliquons la théorie de Bayes d’une manière différente de ce qui est conventionnellement fait pour l’apprentissage automatique. Spécifiquement, au lieu de chercher le vrai modèle à l’origine des données observées, nous cherchons le meilleur modèle selon une métrique donnée. Même si cette différence semble subtile, dans cette approche, nous ne faisons pas la supposition que le vrai modèle appartient à l’ensemble de modèles explorés. Par conséquent, nous disons que nous sommes agnostiques. Plusieurs expérimentations montrent un gain de généralisation significatif en utilisant cette approche d’ensemble de modèles durant la phase de validation croisée. De plus, cet algorithme est simple à programmer et n’ajoute pas un coût de calcul significatif à la recherche d’hyperparamètres conventionnels. Finalement, cet outil probabiliste peut également être utilisé comme un test statistique pour évaluer la qualité des algorithmes sur plusieurs ensembles de données d’apprentissage. / Machine learning is the science of learning from examples. Algorithms based on this approach are now ubiquitous. While there has been significant progress, this field presents important challenges. Namely, simply selecting the function that best fits the observed data was shown to have no statistical guarantee on the examples that have not yet been observed. There are a few learning theories that suggest how to address this problem. Among these, we present the Bayesian modeling of machine learning and the PAC-Bayesian approach to machine learning in a unified view to highlight important similarities. The outcome of this analysis suggests that model averaging is one of the key elements to obtain a good generalization performance. Specifically, one should perform predictions based on the outcome of every model instead of simply the one that best fits the observed data. Unfortunately, this approach comes with a high computational cost problem, and finding good approximations is the subject of active research. In this thesis, we present an innovative approach that can be applied with a low computational cost on a wide range of machine learning setups. In order to achieve this, we apply the Bayes’ theory in a different way than what is conventionally done for machine learning. Specifically, instead of searching for the true model at the origin of the observed data, we search for the best model according to a given metric. While the difference seems subtle, in this approach, we do not assume that the true model belongs to the set of explored model. Hence, we say that we are agnostic. An extensive experimental setup shows a significant generalization performance gain when using this model averaging approach during the cross-validation phase. Moreover, this simple algorithm does not add a significant computational cost to the conventional search of hyperparameters. Finally, this probabilistic tool can also be used as a statistical significance test to evaluate the quality of learning algorithms on multiple datasets.
66

A General Machine Reading Comprehension pipeline

Debruyker, Roxane 13 December 2023 (has links)
Savoir lire est une compétence qui va de la capacité à décoder des caractères à la compréhension profonde du sens de textes. Avec l'émergence de l'intelligence artificielle, deux questions se posent : Comment peut-on apprendre à une intelligence artificielle à lire? Qu'est-ce que cela implique? En essayant de répondre à ces questions, une première évidence nous est rappelée : savoir lire ne peut pas se réduire à savoir répondre à des questions sur des textes. Étant donné que les modèles d'apprentissage machine apprennent avec des exemples d'essai erreur, ils vont apprendre à lire en apprenant à répondre correctement à des questions sur des textes. Cependant, il ne faut pas perdre de vue que savoir lire, c'est comprendre différents types de textes et c'est cette compréhension qui permet de répondre à des questions sur un texte. En d'autres termes, répondre à des questions sur des textes est un des moyens d'évaluation de la compétence de lecture plus qu'une fin en soi. Aujourd'hui, il existe différents types de jeux de données qui sont utilisées pour apprendre à des intelligences artificielles à apprendre à lire. Celles ci proposent des textes avec des questions associées qui requièrent différents types de raisonnement : associations lexicales, déductions à partir d'indices disséminés dans le texte, paraphrase, etc. Le problème est que lorsqu'une intelligence artificielle apprend à partir d'un seul de ces jeux de données, elle n'apprend pas à lire mais est plutôt formée à répondre à un type de question, sur un certain type de texte et avec un certain style d'écriture. Outre la problématique de la généralisation des compétences de lecture, les modèles d'intelligence artificielle qui apprennent à lire en apprenant à répondre à des questions retournent des réponses sans systématiquement indiquer sur quelles phrases du texte sources ils se basent. Cela pose un problème d'explicabilité et peut entrainer une mécompréhension des capacités de ces modèles. Dans ce mémoire, nous proposons de résoudre le problème de généralisation de l'apprentissage en proposant une méthodologie générale adaptée à n'importe quel jeu de données. Ainsi, en ayant une méthodologie commune à tous les types de jeux de données pour apprendre à répondre à tout type de question, sur tout type de texte, nous pourrions apprendre aux modèles d'intelligence artificielle à se concentrer sur les compétences générales de lecture plutôt que sur la capacité spécifique à répondre aux questions. Afin de résoudre également le problème de l'explicabilité, la méthodologie que nous proposons impose à tout modèle de compréhension de lecture automatique de renvoyer les extraits du texte source sur lequel ces réponses sont basées. / Reading is a skill that ranges from the ability to decode characters to a deep understanding of the meaning of a text. With the emergence of artificial intelligence, two questions arise: How can an artificial intelligence be taught to read? What does this imply? In trying to answer these questions, we are reminded of the obvious: knowing how to read cannot be reduced to knowing how to answer questions about texts. Since machine learning models learn with trial-and-error examples, they will learn to read by learning to answer correctly questions about the text they read. However, one should not forget the fact that knowing how to read means understanding different types of texts sufficiently well, and it is this that enables answering questions about a text. In other words, answering questions about texts is one of the means of assessing reading skills rather than an end in itself. Today, there are different types of datasets that are used to teach artificial intelligences to learn to read. These provide texts with associated questions that require different types of reasoning: lexical associations, deductions from discrete clues in the text, paraphrasing, etc. The problem is that when an artificial intelligence learns from only one of these datasets, it does not learn to read but is instead trained to answer a certain type of question, on a certain type of text and with a certain writing style. In addition to the problem of generalizing reading skills, artificial intelligence models that learn to read by learning to answer questions return answers without systematically indicating which sentences in the source text they are based on. This poses a problem of explicability and can lead to a misunderstanding of the capabilities of these models. In this thesis, we propose to solve the generalization issue of learning from one dataset by proposing a general methodology suiting to any machine reading comprehension dataset. Thus, by having a methodology common to all types of datasets to learn how to answer any type of question, on any type of text, we could teach artificial intelligence models to focus on general reading skills rather than on the specific ability to answer questions. In order to also solve the issue of explanability, the methodology we propose impose any machine reading comprehension model to return the span of the source text its answers are based on.
67

Optimizing energy management and routes for electric vehicules using machine learning and optimization

Deschênes, Anthony 16 December 2024 (has links)
Cette thèse présente des approches d'apprentissage automatique et d'optimisation combinatoire pour résoudre des problèmes en lien avec les véhicules électriques et hybrides électriques. Les problèmes d'optimisation combinatoire sont conçus pour prendre en entrée des prédictions pouvant être émises par un ou plusieurs modèles d'apprentissage automatique. Par exemple, des approches basées sur l'apprentissage automatique sont proposées pour prédire la consommation électrique d'un véhicule électrique pour un itinéraire donné ainsi que pour prédire le temps de recharge rapide d'un véhicule électrique. Différents problèmes d'optimisation combinatoires sont ensuite présentés, comme le *Fixed Route Electric Vehicle Charging Problem with NonLinear Energy Management*, et ces problèmes sont résolus grâce à des algorithmes basés sur la programmation linéaire mixte ainsi que la programmation dynamique. Le premier problème consiste à prédire la consommation d'un véhicule électrique à partir de données empiriques. Ces données viennent d'un partenaire industriel, TÉO Taxi, et représentent de vraies courses de taxi. Pour faire cette prédiction, nous utilisons un modèle hybride entre l'apprentissage automatique et un modèle théorique. Nous montrons ensuite que le modèle hybride est celui qui performe le mieux en comparaison avec le modèle théorique et les modèles d'apprentissage automatique seuls. Nous nous attaquons également à la prédiction de la consommation pour un nouveau véhicule pour lequel nous n'aurions pas encore de données. Le deuxième problème consiste à prédire le temps de recharge rapide d'un véhicule électrique à partir de données empiriques. Ces données viennent également d'un partenaire industriel, AddÉnergie, et représentent des séances de recharge faites par de vrais utilisateurs partout au Canada. Cela implique donc que nous avons des données pour une grande variété de températures, qui est connue pour avoir un grand impact sur la durée de recharge d'un véhicule électrique. Différents modèles d'apprentissage supervisé sont testés, comme les forêts aléatoires et les réseaux de neurones. Différentes variantes de chaque modèle sont également explorées. Les hyperparamètres des différents modèles sont ensuite déterminés en utilisant l'optimisation bayésienne, avec une attention particulière sur la structure des réseaux de neurones. Nous démontrons finalement que les réseaux de neurones, particulièrement lorsque nous utilisons l'augmentation de données pour équilibrer le nombre de données par type de véhicule, obtiennent les meilleurs résultats. Les troisième et quatrième problèmes consistent à développer des modèles d'optimisation combinatoire pour optimiser un itinéraire en véhicule électrique. L'objectif est de décider à quel endroit s'arrêter ainsi que la vitesse à rouler pour atteindre la destination le plus rapidement possible. Nous proposons deux algorithmes pour résoudre ce problème : un basé sur la programmation linéaire mixte et un autre basé sur la programmation dynamique. Nous démontrons ensuite que l'approche basée sur la programmation dynamique obtient les meilleures performances. Finalement, les cinquième et sixième problèmes consistent à développer des modèles d'optimisation combinatoire pour le problème de gestion de l'énergie d'un aéronef hybride électrique. Ce problème consiste à décider la quantité de carburant et d'électricité à prendre à chaque terminal ainsi qu'à décider comment utiliser l'énergie sur les différents segments de la route dans l'objectif de minimiser les coûts totaux. Nous proposons également des algorithmes de programmation dynamique et de programmation linéaire mixte pour résoudre ce problème. / This thesis presents machine learning and combinatorial optimization approaches to solve problems related to electric and hybrid electric vehicles. The combinatorial optimization problems are designed to take as input predictions that can be made by one or more machine learning models. For instance, machine learning-based approaches are proposed to predict the energy consumption of an electric vehicle for a given route and to predict the fast-charging duration of an electric vehicle. Various combinatorial problems are then presented, such as the Fixed Route Electric Vehicle Charging Problem with NonLinear Energy Management, and these problems are solved using algorithms based on Mixed-Integer Linear Programming and dynamic programming. The first problem involves predicting the energy consumption of an electric vehicle based on empirical data. This data comes from an industrial partner, Téo Taxi, and represents real taxi rides. To make this prediction, we use a hybrid model between machine learning and a theoretical model. We then show that the hybrid model performs the best compared to the theoretical model and the machine learning models. We also address the problem of predicting the energy consumption of a new vehicle for which we do not yet have data. The second problem involves predicting the fast-charging duration of an electric vehicle using empirical data. This data also comes from an industrial partner, AddÉnergie, and represents charging sessions performed by real users across Canada. This means that we have data for a wide variety of temperatures, which is known to have a significant impact on the charging duration of an electric vehicle. Different supervised learning models are tested, such as random forest and neural networks. Various variants of each model are also explored. The hyperparameters of the different models are then determined using Bayesian Optimization, with particular attention to the structure of the neural networks. We demonstrate that neural networks, especially when using data augmentation to balance the amount of data per vehicle type, achieve the best results. The third and fourth problems involve developing combinatorial optimization models to optimize an electric vehicle route. The goal is to decide where to stop and the speed to drive on each leg in order to reach the destination as quickly as possible. We propose two algorithms to solve this problem: one based on Mixed-Integer Linear Programming and the other based on dynamic programming. We then demonstrate that the approach based on dynamic programming achieves the best performance. Finally, the fifth and sixth problems involve developing combinatorial optimization models for the energy management of a hybrid electric aircraft. This problem requires deciding the amount of fuel and electricity to take at each terminal as well as how to use the energy across different legs of the route with the overall goal of minimizing total costs. We also propose dynamic programming and Mixed-Integer Linear Programming algorithms to solve this problem.
68

Inferring phenotypes from genotypes with machine learning : an application to the global problem of antibiotic resistance

Drouin, Alexandre 24 September 2024 (has links)
Tableau d'honneur de la Faculté des études supérieures et postdoctorales, 2018-2019 / La compréhension du lien entre les caractéristiques génomiques d’un individu, le génotype, et son état biologique, le phénotype, est un élément essentiel au développement d’une médecine personnalisée où les traitements sont adaptés à chacun. Elle permet notamment d’anticiper des maladies, d’estimer la réponse à des traitements et même d’identifier de nouvelles cibles pharmaceutiques. L’apprentissage automatique est une science visant à développer des algorithmes capables d’apprendre à partir d’exemples. Ces algorithmes peuvent être utilisés pour produire des modèles qui estiment des phénotypes à partir de génotypes, lesquels peuvent ensuite être étudiés pour élucider les mécanismes biologiques sous-jacents aux phénotypes. Toutefois, l’utilisation d’algorithmes d’apprentissage dans ce contexte pose d’importants défis algorithmiques et théoriques. La haute dimensionnalité des données génomiques et la petite taille des échantillons de données peuvent mener au surapprentissage; le volume des données requiert des algorithmes adaptés qui limitent leur utilisation des ressources computationnelles; et finalement, les modèles obtenus doivent pouvoir être interprétés par des experts du domaine, ce qui n’est pas toujours possible. Cette thèse présente des algorithmes d’apprentissage produisant des modèles interprétables pour la prédiction de phénotypes à partir de génotypes. En premier lieu, nous explorons la prédiction de phénotypes discrets à l’aide d’algorithmes à base de règles. Nous proposons de nouvelles implémentations hautement optimisées et des garanties de généralisation adaptées aux données génomiques. En second lieu, nous nous intéressons à un problème plus théorique, soit la régression par intervalles, et nous proposons deux nouveaux algorithmes d’apprentissage, dont un à base de règles. Finalement, nous montrons que ce type de régression peut être utilisé pour prédire des phénotypes continus et que ceci mène à des modèles plus précis que ceux des méthodes conventionnelles en présence de données censurées ou bruitées. Le thème applicatif de cette thèse est la prédiction de la résistance aux antibiotiques, un problème de santé publique d’envergure mondiale. Nous démontrons que nos algorithmes peuvent servir à prédire, de façon très précise, des phénotypes de résistance, tout en contribuant à en améliorer la compréhension. Ultimement, nos algorithmes pourront servir au développement d’outils permettant une meilleure utilisation des antibiotiques et un meilleur suivi épidémiologique, un élément clé de la solution à ce problème. / A thorough understanding of the relationship between the genomic characteristics of an individual (the genotype) and its biological state (the phenotype) is essential to personalized medicine, where treatments are tailored to each individual. This notably allows to anticipate diseases, estimate response to treatments, and even identify new pharmaceutical targets. Machine learning is a science that aims to develop algorithms that learn from examples. Such algorithms can be used to learn models that estimate phenotypes based on genotypes, which can then be studied to elucidate the biological mechanisms that underlie the phenotypes. Nonetheless, the application of machine learning in this context poses significant algorithmic and theoretical challenges. The high dimensionality of genomic data and the small size of data samples can lead to overfitting; the large volume of genomic data requires adapted algorithms that limit their use of computational resources; and importantly, the learned models must be interpretable by domain experts, which is not always possible. This thesis presents learning algorithms that produce interpretable models for the prediction of phenotypes based on genotypes. Firstly, we explore the prediction of discrete phenotypes using rule-based learning algorithms. We propose new implementations that are highly optimized and generalization guarantees that are adapted to genomic data. Secondly, we study a more theoretical problem, namely interval regression. We propose two new learning algorithms, one which is rule-based. Finally, we show that this type of regression can be used to predict continuous phenotypes and that this leads to models that are more accurate than those of conventional approaches in the presence of censored or noisy data. The overarching theme of this thesis is an application to the prediction of antibiotic resistance, a global public health problem of high significance. We demonstrate that our algorithms can be used to accurately predict resistance phenotypes and contribute to the improvement of their understanding. Ultimately, we expect that our algorithms will take part in the development of tools that will allow a better use of antibiotics and improved epidemiological surveillance, a key component of the solution to this problem.
69

Prédiction de l'instabilité dynamique des réseaux électriques par apprentissage supervisé des signaux de réponses post-contingence sur des dictionnaires surcomplets

Teukam Dabou, Raoult 02 October 2023 (has links)
Ces dernières décennies, l'intégration aux réseaux électriques de capteurs intelligents incorporant la mesure synchronisée des phaseurs a contribué à enrichir considérablement les bases de données de surveillance en temps réel de la stabilité des réseaux électriques. En parallèle, la lutte aux changements climatiques s'est accompagnée d'un déploiement généralisé des sources d'énergies renouvelables dont l'intermittence de la production et le déficit d'inertie dû à l'interface de celle-ci par l'électronique de puissance, contribuent à augmenter les risques d'instabilité à la suite de contingences de réseau. Dans ce contexte, nous proposons d'appliquer aux données de synchrophaseurs de nouvelles approches d'intelligence de données inspirées par l'analyse massive des séries chronologiques et l'apprentissage sur des dictionnaires supervisés, permettant d'extraire des centaines d'attributs décrivant concisément les estimations d'état dynamique des générateurs de réseaux électriques. La mise en évidence d'une signification physique de ces attributs permet ensuite une classification de la stabilité dynamique qui s'éloigne de ce fait des boîtes noires produites par un apprentissage en profondeur « à l'aveugle » des séries chronologiques, pour évoluer vers une approche transparente plus adaptée à la salle de conduite des réseaux et acceptable pour les ingénieurs d'exploitation. Cette approche d'apprentissage machine « interprétable » par les humains, débouche de surcroît sur une détection fiable, utilisant de courtes fenêtres de données de vitesses d'alternateurs directement mesurées ou reconstituées par estimation d'état dynamique à partir de l'instant d'élimination du défaut, pour détecter toute instabilité subséquente, avec un temps de préemption suffisant pour activer des contremesures permettant de sauvegarder la stabilité du réseau et ainsi prévenir les pannes majeures. Notre travail aborde l'exploitation de cette nouvelle niche d'information par deux approches complémentaires d'intelligence des données : 1) une analyse non parcimonieuse d'une base d'attributs se chiffrant par centaines, calculés automatiquement par l'analyse numérique massive des séries chronologiques de signaux de réponses post-contingence des générateurs; et 2) une analyse parcimonieuse exploitant l'apprentissage supervisée de grands dictionnaires surcomplets pour habiliter une prédiction de l'instabilité sur de courtes fenêtres de données avec une représentation vectorielle creuse (contenant un grand nombre de zéros) et donc numériquement très efficiente en plus de l'interprétabilité inhérente des atomes constituant les dictionnaires. Au niveau méthodologique, l'approche non parcimonieuse vise à implémenter plusieurs méthodes analytiques combinées (notamment la transformée de Fourier, la transformée en ondelette, la méthode de Welch, la méthode de périodogramme et les exposants de Lyapunov) pour extraire du signal de réponse de chaque générateur des centaines d'attributs labellisés et servant à construire un espace physique d'indicateurs de stabilité à haute dimension (HDSI). Ceux-ci sont ensuite utilisés pour développer les prédicteurs de stabilité sur la base d'algorithmes standard de machine learning, par exemple le convolutional neural network (CNN), long short-term memory (LSTM), support vector machine (SVM), AdaBoost ou les forêts aléatoires. L'approche parcimonieuse implémentée consiste à développer deux techniques complémentaires : 1) un dictionnaire d'apprentissage supervisé joint (SLOD) au classificateur et 2) vingt dictionnaires d'apprentissage séparés des signaux associés aux cas stable/instable. Alors que le SLOD utilise des dictionnaires adaptatifs inspirés des données mesurées et apprises hors-ligne, la deuxième approche utilise des dictionnaires fixes pour reconstruire séparément les signaux des classes stables et instables. Dans les deux cas, l'étape finale consiste à identifier automatiquement en temps réel, la classe d'appartenance d'une réponse par reconstruction des signaux associés à partir des dictionnaires appris hors-ligne. L'analyse parcimonieuse des réponses des générateurs sur un dictionnaire d'apprentissage adaptatif joint au classificateur a été implémenté à partir de l'algorithme K-singular value de composition (KSVD) couplé à l'orthogonal matching pursuit (OMP), afin de reconstruire et prédire la stabilité dynamique des réseaux électriques. De plus, vingt décompositions parcimonieuses des signaux sur des dictionnaires fixes (simples et hybrides) ont permis de développer des classificateurs prédisant chaque classe séparément sur la base de la transformée en cosinus discrète (DCT), en sinus discrète (DST), en ondelette (DWT), de la transformée de Haar (DHT), et le dictionnaire de Dirac (DI) couplés à l'orthogonal matching pursuit (OMP). Cette étude démontre que la décomposition parcimonieuse sur un dictionnaire adaptatif joint au classificateur offre une performance proche de l'idéal (c'est-à-dire : 99,99 % précision, 99,99 % sécurité et 99,99 % fiabilité) de loin supérieure à celle d'un classificateur à reconstruction de signaux basée sur les vingt dictionnaires fixes ou adaptatifs séparés, et les classificateurs basés sur les moteurs de machine learning (SVM, ANN, DT, RF, AdaBoost, CNN et LSTM) implémentés à partir des indices HDSI extraits de la base de données des vitesses des rotors des réseaux IEEE 2 area 4 machines, IEEE 39 -bus et IEEE 68 -bus. Toutefois, le temps de resimulation (replay) en temps réel des dictionnaires fixes/adaptatifs séparés est nettement inférieur (de 30-40%) à celui observé pour le dictionnaire adaptatif à classificateur joint / SLOD, et les algorithmes modernes de machine learning utilisant les attributs de type HDSI comme intrants. / In recent decades, the integration of smart sensors incorporating synchronized phasor measurements units (PMU) into power grids has contributed to a significant improvement of the databases for real-time monitoring of power grid stability. In parallel, the fight against climate change has been accompanied by a widespread deployment of renewable energy sources whose intermittency of production and the lack of inertia due to the interface of the latter by power electronics; contribute to increase the risks of instability following network contingencies. In this context, we propose to apply new data intelligence approaches inspired by massive time series analysis and supervised dictionary learning to synchrophasor data, allowing the extraction of hundreds of attributes concisely describing the dynamic state estimates of power system generators. The physical meaning identification of these attributes then allows for an online classification of dynamic stability, thus moving away from the black boxes produced by «blind» deep learning of time series to a transparent approach more suitable for the network control room and acceptable to operating engineers. This human-interpretable machine learning approach also leads to reliable detection, using short windows of generator speed data directly measured or reconstructed by dynamic state estimation from the instant of fault elimination, to detect any subsequent instability, with sufficient preemption time to activate false measures to safeguard the network stability and thus prevent major outages. Our work addresses the exploitation of this new information through two complementary data intelligence approaches : 1) a non-sparse analysis of an attribute base numbering in the hundreds, computed automatically by massive numerical analysis of post-contingency response signal time series from generators; and 2) a sparse analysis exploiting supervised learning of large overcomplete dictionaries to enable instability prediction over short windows of data with a hollow vector representation (containing a large number of zeros) and thus numerically very efficient in addition to the inherent interpretability of the atoms constituting the dictionaries. Methodologically, the non-sparse approach aims to implement several combined analytical methods (including Fourier transform, wavelet transform, Welch's method, periodogram method and Lyapunov exponents) to extract hundreds of labeled attributes from the response signal of each generator and used to construct a physical space of high-dimensional stability indicators (HDSI). These are used to develop stability predictors based on standard machine learning algorithms, e.g., CNN, LSTM, SVM, AdaBoost or random forests. The implemented sparse approach consists in developing two complementary techniques: 1) a supervised learning dictionary attached (SLOD) to the classifier and 2) twenty separate dictionaries learning of the signals associated with the stable/instable cases. While the SLOD uses adaptive dictionaries inspired by the measured and learned offline data, the second approach uses fixed dictionaries to reconstruct the stable and unstable signals classes separately. In both cases, the final step is automatically identified in real time the status to which a response belongs by reconstructing the associated signals from the off-line learned dictionaries. The sparse analysis of generator responses on an adaptive learning dictionary attached to the classifier was implemented using the K-singular value decomposition (KSVD) algorithm coupled with orthogonal matching pursuit (OMP), to reconstruct and predict online the dynamic stability of power systems. In addition, twenty sparse signal decompositions on fixed dictionaries (simple and hybrid) were used to develop classifiers predicting each class separately based on the discrete cosine transform (DCT), discrete sine transform (DST), wavelet transform (DWT), Haar transform (DHT), and Dirac dictionary (DI) coupled with the orthogonal matching pursuit (OMP). This study demonstrates that sparse decomposition on joined adaptive dictionary to the classifier provides near ideal performance (i.e.: 99.99% accuracy, 99.99% security, and 99.99% reliability) far superior to that of a classifier has signal reconstruction based on the twenty separate fixed or adaptive dictionaries and classifiers based on machine learning engines (SVM, ANN, DT, RF, AdaBoost, CNN, and LSTM) implemented from HDSI indices extracted from the rotor speed database of the IEEE 2 area 4 machines, IEEE 39 -bus, and IEEE 68 -bus test systems. However, the real-time replay time of the separate fixed/adaptive dictionaries is significantly lower (by 30-40%) than that observed for the adaptive dictionary with joint classifier/SLOD, and modern machine learning algorithms using HDSI-like attributes as inputs.
70

Bornes PAC-Bayes et algorithmes d'apprentissage

Lacasse, Alexandre 16 April 2018 (has links)
Tableau d’honneur de la Faculté des études supérieures et postdoctorales, 2010-2011 / L’objet principale de cette thèse est l’étude théorique et la conception d’algorithmes d’apprentissage concevant des classificateurs par vote de majorité. En particulier, nous présentons un théorème PAC-Bayes s’appliquant pour borner, entre autres, la variance de la perte de Gibbs (en plus de son espérance). Nous déduisons de ce théorème une borne du risque du vote de majorité plus serrée que la fameuse borne basée sur le risque de Gibbs. Nous présentons également un théorème permettant de borner le risque associé à des fonctions de perte générale. À partir de ce théorème, nous concevons des algorithmes d’apprentissage construisant des classificateurs par vote de majorité pondérés par une distribution minimisant une borne sur les risques associés aux fonctions de perte linéaire, quadratique, exponentielle, ainsi qu’à la fonction de perte du classificateur de Gibbs à piges multiples. Certains de ces algorithmes se comparent favorablement avec AdaBoost. / The main purpose of this thesis is the theoretical study and the design of learning algorithms returning majority-vote classifiers. In particular, we present a PAC-Bayes theorem allowing us to bound the variance of the Gibbs’ loss (not only its expectation). We deduce from this theorem a bound on the risk of a majority vote tighter than the famous bound based on the Gibbs’ risk. We also present a theorem that allows to bound the risk associated with general loss functions. From this theorem, we design learning algorithms building weighted majority vote classifiers minimizing a bound on the risk associated with the following loss functions : linear, quadratic and exponential. Also, we present algorithms based on the randomized majority vote. Some of these algorithms compare favorably with AdaBoost.

Page generated in 0.1475 seconds