Spelling suggestions: "subject:"intelligence artificielle"" "subject:"intelligence artificielles""
91 |
Aspects cognitifs des dialogues entre agents artificiels l'approche par la cohérence cognitive /Pasquier, Philippe. January 1900 (has links) (PDF)
Thèse (Ph. D.)--Université Laval, 2005. / Titre de l'écran-titre (visionné le 15 décembre 2005). Bibliogr.
|
92 |
Time map phonology : finite state models and event logics in speech recognition /Carson-Berndsen, Julie. January 1998 (has links)
Texte remanié de: Doct. th., 1993. / Bibliogr. p. 227-241. Index.
|
93 |
Deklarative prosodische Morphologie : Constraint-basierte Analysen und Computermodelle zum Finnischen und Tigrinya /Walther, Markus, January 1999 (has links)
Texte remanié de: Diss.--Düsseldorf Universität, 1997. / Bibliogr. p. [261]-272.
|
94 |
Fuzzy logic pattern in text and image data analysis / Motifs de la logique floue pour l'analyse des sentiments et en imagerieNderu, Lawrence 14 December 2015 (has links)
La logique floue est aujourd'hui universellement admise comme discipline ayant fait ses preuves à l'intersection des mathématiques, de l'informatique, des sciences cognitives et de l'Intelligence Artificielle. En termes formels, la logique floue est une extension de la logique classique ayant pour but de mesurer la flexibilité du raisonnement humain, et permettant la modélisation des imperfections des données, en particulier, les deux imperfections les plus fréquentes : l'imprécision et l'incertitude. En outre, la logique floue ignore le principe du tiers exclu et celui de non-contradiction.Nous n'allons pas, dans ce court résumé de la thèse, reprendre et définir tous les concepts de cet outil devenu désormais classique : fonction d'appartenance, degré d'appartenance, variable linguistique, opérateurs flous, fuzzyfication, défuzzication, raisonnement approximatif … L'un des concepts de base de cette logique est la notion de possibilité qui permet de modéliser la fonction d'appartenance d'un concept. La possibilité d'un événement diffère de sa probabilité dans la mesure où elle n'est pas intimement liée à celle de l'événement contraire. Ainsi, par exemple, si la probabilité qu'il pleuve demain est de 0,6, alors la probabilité qu'il ne pleuve pas doit être égale à 0,4 tandis que les possibilités qu'il pleuve demain ou non peuvent toutes les deux être égales à 1 (ou encore deux autres valeurs dont la somme peut dépasser 1).Dans le domaine de l'informatique, l'apprentissage non supervisé (ou « clustering ») est une méthode d'apprentissage automatique quasi-autonome. Il s'agit pour un algorithme de diviser un groupe de données, en sous-groupes de manière que les données considérées comme les plus similaires soient associées au sein d'un groupe homogène. Une fois que l'algorithme propose ces différents regroupements, le rôle de l'expert ou du groupe d'experts est alors de nommer chaque groupe, éventuellement diviser certains ou de regrouper certains, afin de créer des classes. Les classes deviennent réelles une fois que l'algorithme a fonctionné et que l'expert les a nommées.Encore une fois, notre travail, comme tous les travaux du domaine, vise à adapter les modèles traditionnelles d'apprentissage et/ou de raisonnement à l'imprécision du monde réel. L'analyse des sentiments à partir de ressources textuelles et les images dans le cadre de l'agriculture de précision nous ont permis d'illustrer nos hypothèses. L'introduction par le biais de notre travail du concept de motifs flous est sans aucun doute une contribution majeure.Ce travail a donné lieu à trois contributions majeures : / Standard (type-1) fuzzy sets were introduced to mimic human reasoning in its use of approximate information and uncertainty to generate decisions. Since knowledge can be expressed in a natural way by using fuzzy sets, many decision problems can be greatly simpli_ed. However, standard type-1 fuzzy sets have limitations when it comes to modelinghuman decision making.When Zadeh introduced the idea of higher types of fuzzy sets called type-n fuzzy sets andtype-2 fuzzy sets, the objective was to solve problems associated with modeling uncertainty using crisp membership functions of type-1 fuzzy sets. The extra dimension presented by type-2 fuzzy sets provides more design freedom and exibility than type-1 fuzzy sets. The ability of FLS to be hybridized with other methods extended the usage of Fuzzy LogicSystems (FLS) in many application domains. In architecture and software engineering the concept of patterns was introduced as a way of creating general repeatable solutions to commonly occurring problems in the respective_elds. In software engineering for example, the design pattern is not a _nished design that can be transformed directly into code. It is a description or template on how to solve a problem that can be used in many di_erent situations. This thesis introduces the novel concept of fuzzy patterns in T2 FLS. Micro-blogs and social media platforms are now considered among the most popular forms of online communication. Through a platform like TwitterTM much information reecting people's opinions and attitudes is published and shared among users on a daily basis. This has brought great opportunities to companies interested in tracking and monitoring the reputation of their brands and businesses, and to policy makers and politicians to support their assessment of public opinions about their policies or political issues. Thisresearch demonstrates the importance of the neutral category in sentiment polarity analysis, it then introduces the concept of fuzzy patterns in sentiment polarity analysis. The xvii Interval Type-2 Fuzzy Set (IT2 FS), were proposed by reference [Men07c] to model words. This is because it is characterized by its Footprint Of Uncertainty (FOU). The FOU providesa potential to capture word uncertainties. The use of IT2 FS in polarity sentiment classi_cation is demonstrated. The importance of the neutral category is demonstrated in both supervised and unsupervised learning methods. In the _nal section the concept of fuzzy patterns in contrast
|
95 |
Online Dynamic Algorithm Portfolios: Minimizing the computational cost of problem solvingGagliolo, Matteo 24 March 2010 (has links)
This thesis presents methods for minimizing the computational effort of problem solving. Rather than looking at a particular algorithm, we consider the issue of computational complexity at a higher level, and propose techniques that, given a set of candidate algorithms, of unknown performance, learn to use these algorithms while solving a sequence of problem instances, with the aim of solving all instances in a minimum time. An analogous meta-level approach to problem solving has been adopted in many different fields, with different aims and terminology. A widely accepted term to describe it is algorithm selection. Algorithm portfolios represent a more general framework, in which computation time is allocated to a set of algorithms running on one or more processors.Automating algorithm selection is an old dream of the AI community, which has been brought closer to reality in the last decade. Most available selection techniques are based on a model of algorithm performance, assumed to be available, or learned during a separate offline training sequence, which is often prohibitively expensive. The model is used to perform a static allocation of resources, with no feedback from the actual execution of the algorithms. There is a trade-off between the performance of model-based selection, and the cost of learning the model. In this thesis, we formulate this trade-off as a bandit problem.We propose GambleTA, a fully dynamic and online algorithm portfolio selection technique, with no separate training phase: all candidate algorithms are run in parallel, while a model incrementally learns their runtime distributions. A redundant set of time allocators uses the partially trained model to optimize machine time shares for the algorithms, in order to minimize runtime. A bandit problem solver picks the allocator to use on each instance, gradually increasing the impact of the best time allocators as the model improves. A similar approach is adopted for learning restart strategies online (GambleR). In both cases, the runtime distributions are modeled using survival analysis techniques; unsuccessful runs are correctly considered as censored runtime observations, allowing to save further computation time.The methods proposed are validated with several experiments, mostly based on data from solver competitions, displaying a robust performance in a variety of settings, and showing that rough performance models already allow to allocate resources efficiently, reducing the risk of wasting computation time. / Permanent URL: http://doc.rero.ch/record/20245 / info:eu-repo/semantics/nonPublished
|
96 |
Per Instance Algorithm Configuration for Continuous Black Box Optimization / Paramétrage automatisé d'algorithme par instance pour l'optimisation numérique boite noireBelkhir, Nacim 20 November 2017 (has links)
Cette thèse porte sur la configurationAutomatisée des algorithmes qui vise à trouver le meilleur paramétrage à un problème donné ou une catégorie deproblèmes.Le problème de configuration de l'algorithme revient doncà un problème de métaFoptimisation dans l'espace desparamètres, dont le métaFobjectif est la mesure deperformance de l’algorithme donné avec une configuration de paramètres donnée.Des approches plus récentes reposent sur une description des problèmes et ont pour but d’apprendre la relationentre l’espace des caractéristiques des problèmes etl’espace des configurations de l’algorithme à paramétrer.Cette thèse de doctorat porter le CAPI (Configurationd'Algorithme Par Instance) pour résoudre des problèmesd'optimisation de boîte noire continus, où seul un budgetlimité d'évaluations de fonctions est disponible. Nous étudions d'abord' les algorithmes évolutionnairesPour l'optimisation continue, en mettant l'accent sur deux algorithmes que nous avons utilisés comme algorithmecible pour CAPI,DE et CMAFES.Ensuite, nous passons en revue l'état de l'art desapproches de configuration d'algorithme, et lesdifférentes fonctionnalités qui ont été proposées dansla littérature pour décrire les problèmesd'optimisation de boîte noire continue.Nous introduisons ensuite une méthodologie générale Pour étudier empiriquement le CAPI pour le domainecontinu, de sorte que toutes les composantes du CAPIpuissent être explorées dans des conditions réelles.À cette fin, nous introduisons également un nouveau Banc d'essai de boîte noire continue, distinct ducélèbre benchmark BBOB, qui est composé deplusieurs fonctions de test multidimensionnelles avec'différentes propriétés problématiques, issues de lalittérature.La méthodologie proposée est finalement appliquée 'àdeux AES. La méthodologie est ainsi, validéempiriquement sur le nouveau banc d’essaid’optimisation boîte noire pour des dimensions allant jusqu’à 100. / This PhD thesis focuses on the automated algorithm configuration that aims at finding the best parameter setting for a given problem or a' class of problem. The Algorithm Configuration problem thus amounts to a metal Foptimization problem in the space of parameters, whosemetaFobjective is the performance measure of the given algorithm at hand with a given parameter configuration. However, in the continuous domain, such method can only be empirically assessed at the cost of running the algorithm on some problem instances. More recent approaches rely on a description of problems in some features space, and try to learn a mapping from this feature space onto the space of parameter configurations of the algorithm at hand. Along these lines, this PhD thesis focuses on the Per Instance Algorithm Configuration (PIAC) for solving continuous black boxoptimization problems, where only a limited budget confessionnalisations available. We first survey Evolutionary Algorithms for continuous optimization, with a focus on two algorithms that we have used as target algorithm for PIAC, DE and CMAFES. Next, we review the state of the art of Algorithm Configuration approaches, and the different features that have been proposed in the literature to describe continuous black box optimization problems. We then introduce a general methodology to empirically study PIAC for the continuous domain, so that all the components of PIAC can be explored in real Fworld conditions. To this end, we also introduce a new continuous black box test bench, distinct from the famous BBOB'benchmark, that is composed of a several multiFdimensional test functions with different problem properties, gathered from the literature. The methodology is finally applied to two EAS. First we use Differential Evolution as'target algorithm, and explore all the components of PIAC, such that we empirically assess the best. Second, based on the results on DE, we empirically investigate PIAC with Covariance Matrix Adaptation Evolution Strategy (CMAFES) as target algorithm. Both use cases empirically validate the proposed methodology on the new black box testbench for dimensions up to100.
|
97 |
Le monde de Turing. Une critique de la raison artificielleQuintilla, Yann 11 October 2021 (has links) (PDF)
Face à la révolution numérique qui parcourt l’aube de ce nouveau siècle, des mutations s’engagent, soulevant de nouvelles questions pour l’humanité. Les postulats humanistes et les propositions des Lumières vont venir éclairer le questionnement autour de l’augmentation de l’Homme porté par le transhumanisme.Nous allons explorer en quoi ces thèses ont enclenché depuis plusieurs siècles une réification de l’Homme et de son monde. La révolution technique entreprise par Turing et celle philosophique, portée par la cybernétique, vont venir proposer une vision algorithmique de l’Homme et de sa réalité. Ce que nous avons appelé le Monde de Turing en est l’aboutissement, faisant de l’homme informationnel, le cybernanthrope, son esclave. Face au totalitarisme libéral de la techné, nous avons identifié un postulat éthique porté par ce que nous avons appelé le delta de Turing. Dès lors, il est possible et nécessaire de faire une critique de la raison artificielle donnant naissance à une éthique pratique de la vertu partagée. Ensuite, nous pourrons analyser comment l’intelligence artificielle peut nous aider à créer une éthique pragmatique des valeurs partagées entre Homme et Machine. / Doctorat en Philosophie / info:eu-repo/semantics/nonPublished
|
98 |
A General Machine Reading Comprehension pipelineDebruyker, Roxane 19 September 2022 (has links)
Savoir lire est une compétence qui va de la capacité à décoder des caractères à la compréhension profonde du sens de textes. Avec l'émergence de l'intelligence artificielle, deux questions se posent : Comment peut-on apprendre à une intelligence artificielle à lire? Qu'est-ce que cela implique? En essayant de répondre à ces questions, une première évidence nous est rappelée : savoir lire ne peut pas se réduire à savoir répondre à des questions sur des textes. Étant donné que les modèles d'apprentissage machine apprennent avec des exemples d'essai erreur, ils vont apprendre à lire en apprenant à répondre correctement à des questions sur des textes. Cependant, il ne faut pas perdre de vue que savoir lire, c'est comprendre différents types de textes et c'est cette compréhension qui permet de répondre à des questions sur un texte. En d'autres termes, répondre à des questions sur des textes est un des moyens d'évaluation de la compétence de lecture plus qu'une fin en soi. Aujourd'hui, il existe différents types de jeux de données qui sont utilisées pour apprendre à des intelligences artificielles à apprendre à lire. Celles ci proposent des textes avec des questions associées qui requièrent différents types de raisonnement : associations lexicales, déductions à partir d'indices disséminés dans le texte, paraphrase, etc. Le problème est que lorsqu'une intelligence artificielle apprend à partir d'un seul de ces jeux de données, elle n'apprend pas à lire mais est plutôt formée à répondre à un type de question, sur un certain type de texte et avec un certain style d'écriture. Outre la problématique de la généralisation des compétences de lecture, les modèles d'intelligence artificielle qui apprennent à lire en apprenant à répondre à des questions retournent des réponses sans systématiquement indiquer sur quelles phrases du texte sources ils se basent. Cela pose un problème d'explicabilité et peut entrainer une mécompréhension des capacités de ces modèles. Dans ce mémoire, nous proposons de résoudre le problème de généralisation de l'apprentissage en proposant une méthodologie générale adaptée à n'importe quel jeu de données. Ainsi, en ayant une méthodologie commune à tous les types de jeux de données pour apprendre à répondre à tout type de question, sur tout type de texte, nous pourrions apprendre aux modèles d'intelligence artificielle à se concentrer sur les compétences générales de lecture plutôt que sur la capacité spécifique à répondre aux questions. Afin de résoudre également le problème de l'explicabilité, la méthodologie que nous proposons impose à tout modèle de compréhension de lecture automatique de renvoyer les extraits du texte source sur lequel ces réponses sont basées. / Reading is a skill that ranges from the ability to decode characters to a deep understanding of the meaning of a text. With the emergence of artificial intelligence, two questions arise: How can an artificial intelligence be taught to read? What does this imply? In trying to answer these questions, we are reminded of the obvious: knowing how to read cannot be reduced to knowing how to answer questions about texts. Since machine learning models learn with trial-and-error examples, they will learn to read by learning to answer correctly questions about the text they read. However, one should not forget the fact that knowing how to read means understanding different types of texts sufficiently well, and it is this that enables answering questions about a text. In other words, answering questions about texts is one of the means of assessing reading skills rather than an end in itself. Today, there are different types of datasets that are used to teach artificial intelligences to learn to read. These provide texts with associated questions that require different types of reasoning: lexical associations, deductions from discrete clues in the text, paraphrasing, etc. The problem is that when an artificial intelligence learns from only one of these datasets, it does not learn to read but is instead trained to answer a certain type of question, on a certain type of text and with a certain writing style. In addition to the problem of generalizing reading skills, artificial intelligence models that learn to read by learning to answer questions return answers without systematically indicating which sentences in the source text they are based on. This poses a problem of explicability and can lead to a misunderstanding of the capabilities of these models. In this thesis, we propose to solve the generalization issue of learning from one dataset by proposing a general methodology suiting to any machine reading comprehension dataset. Thus, by having a methodology common to all types of datasets to learn how to answer any type of question, on any type of text, we could teach artificial intelligence models to focus on general reading skills rather than on the specific ability to answer questions. In order to also solve the issue of explanability, the methodology we propose impose any machine reading comprehension model to return the span of the source text its answers are based on.
|
99 |
La génération automatique de descriptions de systèmes dynamiquesTourigny, Nicole January 1994 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
|
100 |
Infrared thermographic data processing with deep learning and explainable AIWei, Ziang 05 November 2024 (has links)
La thermographie pulsée (PT), importante méthode de contrôle non destructif, a suscité un intérêt croissant ces dernières années, en raison de sa rapidité de mesure, de son excellente mobilité et de sa haute résolution. Son champ d'application s'étend à divers matériaux, tels que les métaux et les matériaux composites. Les données thermographiques consistent en des séquences infrarouges bidimensionnelles représentant l'évolution de la température de surface de l'échantillon testé. Même pour les professionnels qualifiés, il est difficile d'identifier avec précision tous les types de défauts. En outre, la caractérisation des défauts peut être encore plus difficile à décider. Bien que l'apprentissage profond soit devenu une approche populaire du traitement automatisé des données ces dernières années, il existe quelques problèmes communs lorsqu'ils sont appliqués à l'analyse de séquences d'images thermographiques. Tout d'abord, les approches d'apprentissage profond sont généralement gourmandes en données, alors que les données thermographiques sont rares, la préparation des essais étant généralement fastidieuse. Deuxièmement, le ressuage étant axé sur la détection des défauts sous la surface, il est souvent très difficile d'obtenir l'emplacement exact des défauts. Cependant, la caractérisation précise des défauts est cruciale pour l'entraînement des réseaux neuronaux profonds. Troisièmement, contrairement au domaine de la vision par ordinateur, où il existe de nombreux ensembles de données bien préparés pour l'évaluation comparative de différents algorithmes, il n'existe que quelques ensembles de données de ressuage accessibles au public. Cependant, ces ensembles de données sont essentiels pour faire progresser les algorithmes de traitement des données thermographiques. Quatrièmement, les modèles d'apprentissage profond, malgré leurs bonnes performances, sont souvent considérés comme des « boîtes noires ». Cela constitue un obstacle à leur déploiement dans l'industrie pour l'assurance qualité, car il est très difficile de gagner la confiance de l'utilisateur final, qui est responsable de la qualité du produit. La présente étude se penche sur les questions susmentionnées. Pour remédier à la pénurie de données et au nombre limité d'ensembles de données de référence, deux ensembles de données de PT ont été préparés et mis à la disposition du public, l'un pour la segmentation des défauts et l'autre pour l'estimation et la localisation de la profondeur des défauts. Ce dernier ensemble de données est étiqueté à l'aide des images CAO correspondantes. Cela permet d'améliorer la précision des informations d'étiquetage. En outre, pour améliorer l'explicabilité des modèles profonds utilisés pour le traitement des données infrarouges, trois méthodes d'IA explicables sont étudiées, notamment la méthode de visualisation de la carte d'activation, la méthode d'attribution des caractéristiques et la méthode d'occlusion des caractéristiques. La méthode de visualisation de la carte d'activation montre le processus de prise de décision du modèle profond, qui est similaire à la perception humaine. La méthode d'attribution des caractéristiques et la méthode d'occlusion des caractéristiques ont généré des cartes thermiques similaires, démontrant que les modèles utilisent les caractéristiques correctes pour prendre les décisions finales. La crise de confiance du modèle profond peut donc être atténuée. / Pulsed thermography (PT), as an important nondestructive testing method, has attracted increasing attention in recent years, due to its rapid measurement speed, excellent mobility, and high resolution. Its applicability spans across various materials, such as metal and composite materials. The thermographic data consist of two-dimensional infrared sequences representing the evolution of the surface temperature of the test specimen. Even for skilled professionals, it is challenging to accurately identify all kinds of defects. Furthermore, the characterization for the defects can be even more difficult to decide. Although deep learning has become a popular automated data processing approach in recent years, there are some common issues when they are applied to the analysis of thermographic image sequences. First, deep learning approaches are typically data-hungry, whereas thermographic data are scarce as the preparation for testing is usually tedious. Second, as PT focuses on the detection of subsurface defects, it is often quite challenging to obtain the exact location of the defects. However, the accurate characterization of the defects is crucial for the training of deep neural networks. Third, unlike the computer vision field, where there are numerous well-prepared datasets for benchmarking different algorithms, there are only a few such publicly accessible PT datasets. However, these datasets are fundamental for advancing algorithms in thermographic data processing. Fourth, the deep learning models, despite their good performance, are often considered "black boxes". This presents an obstacle to their deployment in the industry for quality assurance due to the significant challenge of earning the trust of the end user who bears the responsibility for the product's quality. This study investigates the aforementioned issues. To address the scarcity of data and the limited benchmark datasets, two PT datasets are prepared and made publicly available, one is for defect segmentation and the other is for defect depth estimation and localization. The latter dataset is labeled using the corresponding CAD images. This enhances the accuracy of the labeling information. Furthermore, to enhance the explainability of the deep models used for infrared data processing, three explainable AI methods are investigated, including the activation map visualization method, feature attribution method, and feature occlusion method. The activation map visualization method shows the decision-making process of the deep model, which is similar to human perception. The feature attribution method and feature occlusion method generated similar heat maps, demonstrating that the models use the correct features to make final decisions. The trust crisis of the deep model can therefore be mitigated.
|
Page generated in 0.0765 seconds