• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 406
  • 291
  • 116
  • 4
  • 3
  • Tagged with
  • 873
  • 873
  • 530
  • 321
  • 310
  • 284
  • 267
  • 263
  • 242
  • 217
  • 207
  • 205
  • 202
  • 200
  • 197
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Calibration par intelligence artificielle de la détermination des besoins en chaux des sols acides

Dupre, Lenz Clove Richardly 03 August 2022 (has links)
Au Québec, dans toutes les provinces canadiennes et dans 18 États américains, la méthode de détermination des besoins en chaux des sols agricoles est basée sur l'analyse du pH[indice SMP]. Cependant, cette méthode pose des problèmes de précision par rapport aux sols dont les besoins en chaux sont faibles. Ainsi cette méthode n'est pas trop en phase avec la réalité agronomique d'une majorité de sols du Québec ayant de faibles besoins et entretenus chaque année par des pratiques de chaulage. L'objectif de cette étude était de développer une nouvelle procédure d'évaluation des besoins en chaux basée sur les analyses routinières des sols (pH[indice eau], MO, P[indice M3], K[indice M3], Ca[indice M3], Mg[indice M3], Al[indice M3]) et leur calibration par apprentissage supervisé sur les courbes de titrage de l'acidité des sols. Pour réaliser cette étude, 270 courbes de titrage ont été élaborés à partir d'expériences de laboratoire, ensuite ces courbes ont été paramétrisés et les covariables découlant de cette paramétrisation sont prédits par intelligence artificielle à partir de caractéristiques physico-chimiques de base des sols analysés. Ce projet de recherche a été réalisé de façon à prendre le plus en considération possible la réalité des sols agricoles au Québec, l'échantillonnage a été faite au niveau de 9 régions du Québec. Les résultats obtenus prouvent qu'il est possible de paramétriser une courbe de titration d'un sol et de prédire ses besoins en chaux à partir de ses paramètres physico-chimiques routinières. / In Quebec, in all Canadian provinces and in 18 American states, the method for determining the lime requirements of agricultural soils is based on pHSMP analysis. However, this method poses accuracy problems for soils with low lime requirements. Thus, this method is not in phase with the agronomic reality of a majority of Quebec soils with low needs and maintained each year by liming practices. The objective of this study was to develop a new procedure for evaluating lime requirements based on routine soil analyses (pH[subscript water], MO, PM3, KM3, CaM3, MgM3, AlM3) and their calibration by supervised learning on soil acidity titration curves. To carry out this study, 270 titration curves were elaborated from laboratory experiments, then these curves were parameterized and the covariates resulting from this parameterization are predicted by artificial intelligence from basic physicochemical characteristics of the analyzed soils. This research project was carried out in such a way as to take into account the reality of agricultural soils in Quebec as much as possible. The sampling was done in 9 regions of Quebec. The results obtained prove that it is possible to parameterize a soil titration curve and to predict its lime needs from its routine physico-chemical parameters.
52

Simulation et inférence de réseaux de neurones à l’aide d’intelligence artificielle

Bahdine, Mohamed 02 February 2021 (has links)
La représentation par réseau est un outil puissant pour la modélisation des systèmes dynamiques complexes. Elle est notamment utilisée en neurosciences pour étudier le cerveau. Cependant, extraire un connectome, soit la liste des neurones et des connexions qui les relient, demeure un défi important pour des cerveaux de plusieurs milliers de neurones. C’est le cas du cerveau de la larve du poisson-zèbre qui contient près d’une centaine de milliers de neurones. Puisque les synapses ne peuvent être directement observées, les connexions entre neurones doivent plutôt être inférées. Plusieurs méthodes classiques, dites d’inférence fonctionnelle, issues des statistiques et de la théorie de l’information, prédisent la connectivité à partir des séries temporelles qui décrivent l’activité des neurones. Plus récemment, des avancées en intelligence artificielle ont ouvert la voie à de nouvelles méthodes d’inférence. L’objectif du projet de maîtrise exposé dans ce mémoire est de comparer la performance des méthodes de l’intelligence artificielle à celle des méthodes bien établies. Puisque la connectivité réelle est nécessaire pour une telle comparaison, un simulateur de réseau de neurones est utilisé pour générer des séries temporelles d’activité à partir de connectivités réelles extraites de vidéos d’activité. Il est montré que la calibration d’un tel simulateur, dans le but d’obtenir de l’activité similaire à celle des poissons-zèbres, n’est pas une tâche triviale. Une approche d’apprentissage profond est donc conçue pour prédire, à partir de métriques d’activité globale, les paramètres de simulation idéaux. Il est ensuite montré, sur 86% des simulations générées, qu’un modèle de réseau de neurones artificiels à convolution performe significativement mieux que les autres méthodes d’inférence. Cependant, lorsqu’un entraînement supervisé est impossible, la méthode classique de transfert d’entropie performe mieux qu’un modèle d’apprentissage profond nonsupervisé sur 78% des simulations générées. / Complex network analysis is a powerful tool for the study of dynamical systems. It is often used in neuroscience to study the brain. However, extraction of complete connectomes, i.e. , the list of all neurons and connections, is still a challenge for large brains. This is the case for the brain of the zebrafish which contains almost a hundred thousand neurons. Since direct observation of synapses is still intractable for a brain of this size, connections between neurons must be inferred from their activity. It is indeed possible to extract time series of activity for all neurons, by making them fluorescent upon activation through genetic engineering and by leveraging the zebrafish’s transparency during the larval stage. Then, so-called methods of functional inference, based on information theory, can be used to predict the connectivity of neurons from time series of their activity. Recent breakthroughs in artificial intelligence have opened the door to new methods of inference. The goal of the project described in this thesis is to compare the performance of such new methods to the performance of well-established ones. Since ground truth of connectivity must be known for comparison, a simulator is used to generate synthetic time series of activity from known connectivity. It is shown that the tuning of such a simulator, in order to generate realistic data, is not an easy task. Therefore, a deep learning approach is proposed to predict optimal simulator parameters by analysis global dynamical metrics. Using the generated time series, it is shown that a convolutional neural network performs significantly better than well-established methods on 86% of simulations. However, in cases where supervised learning is impossible, the zebrafish’s case being an example, the classical method of Transfer Entropy performs better than an unsupervised deep learning model on 78% of simulations.
53

Approches par bandit pour la génération automatique de résumés de textes

Godbout, Mathieu 09 July 2021 (has links)
Ce mémoire aborde l'utilisation des méthodes par bandit pour résoudre la problématique de l'entraînement de modèles de générations de résumés extractifs. Les modèles extractifs, qui bâtissent des résumés en sélectionnant des phrases d'un document original, sont difficiles à entraîner car le résumé cible correspondant à un document n'est habituellement pas constitué de manière extractive. C'est à cet effet que l'on propose de voir la production de résumés extractifs comme différents problèmes de bandit, lesquels sont accompagnés d'algorithmes pouvant être utilisés pour l'entraînement. On commence ce document en présentant BanditSum, une approche tirée de la litérature et qui voit la génération des résumés d'un ensemble de documents comme un problème de bandit contextuel. Ensuite, on introduit CombiSum, un nouvel algorithme qui formule la génération du résumé d'un seul document comme un bandit combinatoire. En exploitant la formule combinatoire, CombiSum réussit à incorporer la notion du potentiel extractif de chaque phrase à son entraînement. Enfin, on propose LinCombiSum, la variante linéaire de CombiSum qui exploite les similarités entre les phrases d'un document et emploie plutôt la formulation en bandit linéaire combinatoire. / This thesis discusses the use of bandit methods to solve the problem of training extractive abstract generation models. The extractive models, which build summaries by selecting sentences from an original document, are difficult to train because the target summary of a document is usually not built in an extractive way. It is for this purpose that we propose to see the production of extractive summaries as different bandit problems, for which there exist algorithms that can be leveraged for training summarization models.In this paper, BanditSum is first presented, an approach drawn from the literature that sees the generation of the summaries of a set of documents as a contextual bandit problem. Next,we introduce CombiSum, a new algorithm which formulates the generation of the summary of a single document as a combinatorial bandit. By exploiting the combinatorial formulation,CombiSum manages to incorporate the notion of the extractive potential of each sentence of a document in its training. Finally, we propose LinCombiSum, the linear variant of Com-biSum which exploits the similarities between sentences in a document and uses the linear combinatorial bandit formulation instead
54

Place des mégadonnées et des technologies de l'Intelligence Artificielle dans les activités de communication des petites et moyennes entreprises au Canada

El Didi, Dina 23 November 2022 (has links)
Le développement des mégadonnées et des technologies de l'Intelligence Artificielle a donné naissance à une économie numérique contrôlée par les géants du web (GAFAM). Cette économie témoigne d’une certaine inégalité quant à l'accès et à la gestion des mégadonnées et des technologies de l'Intelligence Artificielle. La présente étude vise à explorer l'inégalité entre les grandes organisations et les petites et moyennes entreprises (PME) au sujet de l'accès et de l'utilisation des mégadonnées et des technologies de l'IA. Pour ce, il s'agit de répondre à la question suivante : « Comment les équipes de communication dans les PME, au Canada, envisagent l'usage et l'importance des mégadonnées et des technologies de l'IA pour leur travail ? » Le cadre théorique mobilisé dans ce travail de recherche est, d’un côté, la sociologie des usages qui aidera à comprendre et à analyser les usages des mégadonnées et des technologies de l'IA par les équipes de communication des PME ; d'un autre côté, l'approche narrative qui permettra de décrire les contextes de pratiques de ces usages. Nous avons eu recours à une méthode mixte. La méthode quantitative, via un questionnaire en ligne, a permis d'identifier la place qu'occupent ces technologies actuellement dans le travail régulier des professionnels de la communication des PME ainsi que les défis qu'ils affrontent pour la mise en place et l'utilisation de ces technologies. La méthode qualitative, via des entrevues semi-dirigées, a servi à mieux comprendre les contextes de pratiques où ces technologies sont utilisées ou pourraient être utilisées. Les résultats ont suggéré qu'il existe un écart entre les PME et les grandes organisations par rapport à l'exploitation et à l'utilisation de ces technologies. Cet écart est dû avant tout à certains défis tels que le manque de connaissances et d'expertise et le manque d'intérêt envers ces technologies. Cette inégalité pourrait être mitigée en mettant en place un plan de formation des gestionnaires afin de garantir des changements au niveau de la culture organisationnelle. Les résultats ont fait émerger l'importance de l'intervention humaine sans laquelle les idées générées par les mégadonnées et les technologies de l'IA risquent d'être biaisées. Ainsi, compte tenu des limites de cette étude exploratoire, elle a permis d'avancer les connaissances en faisant émerger quelques pistes de recherches futures en ce qui concerne les mégadonnées et les technologies de l'IA et leur importance pour les activités de communication dans les PME.
55

Réseaux de neurones pour l'apprentissage de la préférence en microscopie super-résolution

Robitaille, Louis-Emile 15 April 2021 (has links)
Pendant plusieurs années, la microscopie à fluorescence a été limitée par le phénomène de diffraction. Or, pour étudier des phénomènes dynamiques à l’intérieur des cellules, une résolution nanométrique est souvent nécessaire. Pour ce faire, une avancée importante pour la microscopie super-résolution fut l’invention du microscope à déplétion par émission stimulée(STED pour STimulated-Emission-Depletion) (Hell and Wichmann, 1994). Si la microscopieSTED permet d’atteindre la précision nanométrique, celle-ci consiste en une technique extrêmement sophistiquée et son utilisation requiert des connaissances avancées dans plusieurs domaines, par exemple, la physique, la chimie et la biologie. Dans le but de rendre le microscope plus accessible, Durand et al. (2018) tire profit des dernières avancées en intelligence artificielle pour automatiser le paramétrage du STED à l’aide d’une boucle d’optimisation. L’objectif visé est de produire des images avec la plus haute qualité tout en minimisant le photo blanchiment et le temps d’exposition. L’incapacité de mesurer la qualité des images et de choisir un compromis parmi les objectifs nécessite malheureusement toujours la présence d’un expert derrière le microscope. En automatisant l’évaluation de la qualité des images et la sélection de compromis, ce mémoire vise à montrer le potentiel des réseaux de neurones pour l’apprentissage de la préférence en sciences de la vie. / For many years, fluorescent microscopy has been limited by diffraction. However, to study dynamic phenomena inside cells, a nanometric resolution is often necessary. To cope with this problem, an important development for fluorescent microscopy was the invention ofSTimulated-Emission-Depletion microscopy (STED) (Hell and Wichmann, 1994). If STEDachieves nanometric microscopy, it is also an extremely sophisticated technique that requires advanced knowledge across a wide range of domains, e.g. physics, chemistry and biology. With the goal of democratising the microscope, Durand et al. (2018) use the last development in artificial intelligence to automate STED parameterization with an optimisation loop. The objective aimed is to produce high-quality images while minimising photo bleaching and exposition time. The inability of measuring image quality and of choosing between compromise among objectives still forces an expert to stay behind the microscope. By automating the assessment of image quality and the selection of compromise, this master thesis intends to demonstrate the potential of neural networks for preference learning in life science.
56

Diagnostic et suivi d'état embarqués -- Une étude algorithmique.

Fabien, Aratbi-Perrot 01 July 2011 (has links) (PDF)
La problématique de cette thèse a été d'étudier les systèmes pouvant (se) diagnostiquer en vue de (se) reconfigurer dans le contexte de l'amélioration de l'autonomie des systèmes spatiaux. Pour cela, nous nous sommes intéressés aux agents fondés sur un modèle du système, concept étudié en Intelligence Artificielle. Nous avons utilisé ce concept dans un but de suivi d'état, tout en prenant en compte les défauts pouvant affecter le système, effectuant ainsi la tâche de diagnostic dynamique. Pour cela, les aspects concernant les défauts du système ont été intégrés dans le modèle. Le suivi d'état est la tâche qui met à jour un état de croyance concernant le système. Nous l'avons analysé sous un angle algorithmique dans le but de répondre aux contraintes de faibles ressources de calcul présentes à bord des systèmes spatiaux. Nous avons étudié les algorithmes de suivi qui opèrent sur des modèles logiques, tels que ceux écrits en logique propositionnelle ou dans le langage des réseaux de contraintes, et sur des modèles probabilistes, tels que les réseaux Bayésiens dynamiques. Cette étude a permis de cibler le phénomène d'enchevêtrement qui rend exponentiel la représentation de l'état de croyance. Notre contribution consiste à proposer une approche algorithmique qui utilise un algorithme de recherche en profondeur d'abord dans un espace de recherche Et/Ou. Dans cet espace, le phénomène d'enchevêtrement a pu être analysé sous un nouvel angle. Nous avons proposé une solution au phénomène d'enchevêtrement en définissant, sous la forme de trois règles de calcul, un système cohérent et complet dans la théorie des ensembles. Nous avons ensuite défini des structures de données servant de représentation compacte de l'état de croyance. Ces structures de données sont appelées arbres symboliques. Nous concluons par une généralisation et des perspectives dans le domaine algorithmique et les mathématiques.
57

Communication inter-véhicules et route-à-véhicule apprentissage de la communication inter-véhicules /

Grégoire-Girard, Pierre-Luc. January 1900 (has links) (PDF)
Thèse (M.Sc)--Université Laval, 2008. / Titre de l'écran-titre (visionné le 25 mars 2009). Bibliogr.
58

Multi-view Machine Learning And Its Applications To Multi-Omic Tasks

Bauvin, Baptiste 16 January 2024 (has links)
Titre de l'écran-titre (visionné le 10 janvier 2024) / Cette thèse se situe à l'intersection de plusieurs domaines d'études. Elle traite principalement d'apprentissage automatique, un champ d'études de l'intelligence artificielle. Plus particulièrement, elle se focalise sur la classification supervisée, un cas particulier où l'objectif est de séparer des exemples dans des classes, pour lequel on utilise des exemples étiquetés sur lesquels on apprend un classifieur. Plus précisément, nous nous concentrons sur l'apprentissage multi-vues, pour lequel les classifieurs ont accès à plusieurs types de données. De plus, cette thèse traite de l'application de l'apprentissage multivue à des données biologiques. Les données dites -omiques, qui regroupent plusieurs analyses d'un échantillon sanguin, décrivant une grande variété de processus naturels sont notre axe principal. Ces données présentent plusieurs défis, que nous explorons tout au long de cette thèse. Pour ce faire, nous présentons également plusieurs outils spécifiquement conçus pour comparer des algorithmes d'apprentissage automatique sur des données multivues. En effet, si le domaine monovue peut se reposer sur un grand nombre d'outils robustes, ils ne sont pas utilisables dans le paradigme multivues. Ainsi une partie de ce doctorat a été dédiée au développement d'outils de qualité pour l'apprentissage multivues. En outre, nos analyses expérimentales sur les données réelles nous ont suggéré que le développement d'algorithmes spécifiques pour le multivues était moins une priorité que la conception d'approches relevant les défis des données -omiques. Ainsi, la seconde partie de cette thèse est consacrée à l'étude des méthodes d'ensembles monovues. Ce domaine regroupe tous les algorithmes construits par l'agrégation de plusieurs sous-méthodes tels que les votes de majorité, particulièrement intéressants pour l'application sur les données -omiques. De ce fait, nous proposons deux nouveaux algorithmes basés sur la méthode gloutonne pour apprendre sur des données en grande dimension. Le premier, CB-Boost, se repose sur l'optimisation efficace d'une quantité théorique, la C-borne, permettant de construire des votes de majorité performants et robustes. Le second, SamBA, est une généralisation du boosting permettant de prendre en compte des expertises locales dans son modèle pour se reposer sur une fonction de décision particulièrement parcimonieuse et interprétable. / This thesis lies at the intersection of multiple fields of study. It mainly focuses on machine learning, a domain of artificial intelligence. More specifically, we study supervised classification, which goal is to separate samples in several classes, relying on labelled samples on which a classifier is fitted. More precisely, we focus on multi-view machine learning, for which the classifiers can access multiple data types. In addition, this thesis studies the application of multi-view machine learning on biological data. More particularly, we focus on -omics data, a set of biological data that regroups several analyses derived from a biological sample, covering a large range of natural processes. This type of data is characterized by multiple challenges that we explore in this thesis. To do so, we present several tools designed specifically to allow the comparison of machine learning algorithms on multi-view data. Indeed, if the mono-view case can rely on a large number of robust libraries, they are not compatible with multi-view learning. As a consequence, a section of this thesis is dedicated to present python tools for multi-view learning. Furthermore, our experimental studies on real-life -omic data suggested that the design of multi-view specific algorithms was less of a priority than the conception of approaches specifically designed to tackle the challenges of -omic data. As a consequence, the second part of this thesis is dedicated to the study of mono-view ensemble methods. This domain regroups all the algorithms built from the aggregation of several sub-methods, such as majority votes. It is particularly interesting and useful for applications on -omic data. Consequently, we propose two algorithms based on greedy optimization, designed to learn on large dimension data. The first one, CB-Boost relies on the efficient optimization of a theoretical quantity, the C-bound, to build accurate and robust majority votes. The second one, SamBA, is a generalization of the boosting framework allowing local expertise in its model, with the objective of outputting particularly sparse and interpretable decision functions.
59

Justice, éthique et intelligence artificielle : la délégation de la prise de décision judiciaire à un algorithme et l'égalité d'accès au juge

Nordmann, Raphaëlle 05 March 2020 (has links)
Ce projet de recherche porte sur la justice, l’éthique et l’intelligence artificielle (IA), et plus précisément sur les enjeux éthiques soulevés par la délégation de la prise de décision judiciaire à une IA. Parmi ces enjeux, celui sur lequel nous avons choisi de nous concentrer est celui de l’égalité d’accès au juge, un droit fondamental à l’échelle européenne comme internationale. Le respect de cet enjeu lors de la mise en oeuvre d’algorithmes de règlement des litiges au sein des juridictions sera examiné ici au regard des textes qui sont actuellement les plus avancés pour encadrer éthiquement l’IA : il s’agit d’une part de la déclaration de Montréal, parue en décembre 2018, et d’autre part des lignes directrices de la Commission européenne, parues en avril 2019. / This research deals with justice, ethics and artificial intelligence (AI). More precisely, the aim is to discuss what ethical issues are raised when delegating judicial decision-making to an AI. The issue we are focusing on is equal access to the judge, a fundamental right in both European and international texts. In regard to the most advanced ones that set an ethical frame for the development of AI – which are the Declaration of Montreal, published in December 2018, and the Ethical Guidelines for Trustworthy AI published by the European Commission in April 2019 – we will investigate whether this right is enforced when dispute resolution algorithms are implemented in jurisdictions.
60

Perceptron sous forme duale tronquée et variantes

Rouleau, Christian 12 April 2018 (has links)
L’apprentissage automatique fait parti d’une branche de l’intelligence artificielle et est utilisé dans de nombreux domaines en science. Il se divise en trois catégories principales : supervisé, non-supervisé et par renforcement. Ce mémoire de maîtrise portera uniquement sur l’apprentissage supervisé et plus précisément sur la classification de données. Un des premiers algorithmes en classification, le perceptron, fut proposé dans les années soixante. Nous proposons une variante de cet algorithme, que nous appelons le perceptron dual tronqué, qui permet l’arrêt de l’algorithme selon un nouveau critère. Nous comparerons cette nouvelle variante à d’autres variantes du perceptron. De plus, nous utiliserons le perceptron dual tronqué pour construire des classificateurs plus complexes comme les «Bayes Point Machines». / Machine Learning is a part of the artificial intelligence and is used in many fields in science. It is divided into three categories : supervised, not supervised and by reinforcement. This master’s paper will relate only the supervised learning and more precisely the classification of datas. One of the first algorithms in classification, the perceptron, was proposed in the Sixties. We propose an alternative of this algorithm, which we call the truncated dual perceptron, which allows the stop of the algorithm according to a new criterion. We will compare this new alternative with other alternatives of the perceptron. Moreover, we will use the truncated dual perceptron to build more complex classifiers like the «Bayes Point Machines».

Page generated in 0.1469 seconds