• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 406
  • 299
  • 123
  • 4
  • 3
  • Tagged with
  • 888
  • 888
  • 545
  • 330
  • 325
  • 293
  • 277
  • 263
  • 242
  • 217
  • 208
  • 206
  • 202
  • 200
  • 200
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Leveraging repeated games for solving complex multiagent decision problems

Burkov, Andriy 17 April 2018 (has links)
Prendre de bonnes décisions dans des environnements multiagents est une tâche difficile dans la mesure où la présence de plusieurs décideurs implique des conflits d'intérêts, un manque de coordination, et une multiplicité de décisions possibles. Si de plus, les décideurs interagissent successivement à travers le temps, ils doivent non seulement décider ce qu'il faut faire actuellement, mais aussi comment leurs décisions actuelles peuvent affecter le comportement des autres dans le futur. La théorie des jeux est un outil mathématique qui vise à modéliser ce type d'interactions via des jeux stratégiques à plusieurs joueurs. Des lors, les problèmes de décision multiagent sont souvent étudiés en utilisant la théorie des jeux. Dans ce contexte, et si on se restreint aux jeux dynamiques, les problèmes de décision multiagent complexes peuvent être approchés de façon algorithmique. La contribution de cette thèse est triple. Premièrement, elle contribue à un cadre algorithmique pour la planification distribuée dans les jeux dynamiques non-coopératifs. La multiplicité des plans possibles est à l'origine de graves complications pour toute approche de planification. Nous proposons une nouvelle approche basée sur la notion d'apprentissage dans les jeux répétés. Une telle approche permet de surmonter lesdites complications par le biais de la communication entre les joueurs. Nous proposons ensuite un algorithme d'apprentissage pour les jeux répétés en ``self-play''. Notre algorithme permet aux joueurs de converger, dans les jeux répétés initialement inconnus, vers un comportement conjoint optimal dans un certain sens bien défini, et ce, sans aucune communication entre les joueurs. Finalement, nous proposons une famille d'algorithmes de résolution approximative des jeux dynamiques et d'extraction des stratégies des joueurs. Dans ce contexte, nous proposons tout d'abord une méthode pour calculer un sous-ensemble non vide des équilibres approximatifs parfaits en sous-jeu dans les jeux répétés. Nous montrons ensuite comment nous pouvons étendre cette méthode pour approximer tous les équilibres parfaits en sous-jeu dans les jeux répétés, et aussi résoudre des jeux dynamiques plus complexes. / Making good decisions in multiagent environments is a hard problem in the sense that the presence of several decision makers implies conflicts of interests, a lack of coordination, and a multiplicity of possible decisions. If, then, the same decision makers interact continuously through time, they have to decide not only what to do in the present, but also how their present decisions may affect the behavior of the others in the future. Game theory is a mathematical tool that aims to model such interactions as strategic games of multiple players. Therefore, multiagent decision problems are often studied using game theory. In this context, and being restricted to dynamic games, complex multiagent decision problems can be algorithmically approached. The contribution of this thesis is three-fold. First, this thesis contributes an algorithmic framework for distributed planning in non-cooperative dynamic games. The multiplicity of possible plans is a matter of serious complications for any planning approach. We propose a novel approach based on the concept of learning in repeated games. Our approach permits overcoming the aforementioned complications by means of communication between players. We then propose a learning algorithm for repeated game self-play. Our algorithm allows players to converge, in an initially unknown repeated game, to a joint behavior optimal in a certain, well-defined sense, without communication between players. Finally, we propose a family of algorithms for approximately solving dynamic games, and for extracting equilibrium strategy profiles. In this context, we first propose a method to compute a nonempty subset of approximate subgame-perfect equilibria in repeated games. We then demonstrate how to extend this method for approximating all subgame-perfect equilibria in repeated games, and also for solving more complex dynamic games.
102

Selective sampling for classification

Shanian, Sara 13 April 2018 (has links)
Une des objectifs poursuivis par la recherche en apprentissage automatique est la construction de bons classificateurs à partir d'un ensemble d'exemples étiquetés. Certains problèmes nécessitent de réunir un grand ensemble d'exemples étiquetés, ce qui peut s'avérer long et coûteux. Afin de réduire ces efforts, il est possible d'utiliser les algorithmes d'apprentissage actif. Ces algorithmes tirent profit de la possibilité de faire quelques demandes d'étiquetage parmi un grand ensemble d'exemples non-étiquetés pour construire un classificateur précis. Il est cependant important de préciser que les algorithmes d'apprentissage actif actuels possèdent eux-mêmes quelques points faibles connus qui peuvent les mener à performer inadéquatement dans certaines situations. Dans cette thèse, nous proposons un nouvel algorithme d'apprentissage actif. Notre algorithme atténue certains points faibles des précédents algorithmes d'apprentissage actif, et il se révèle trés compétitif aux algorithmes d'apprentissage actif bien-connus. De plus, notre algorithme est facile à implémenter. / One of the goals of machine learning researches is to build accurate classifiers form an amount of labeled examples. In some problems, it is necessary to gather a large set of labeled examples which can be costly and time-consuming. To reduce these expenses, one can use active learning algorithms. These algorithms benefit from the possibility of performing a small number of label-queries from a large set of unlabeled examples to build an accurate classifier. It should be mentioned that actual active learning algorithms, themselves, have some known weak points which may lead them to perform unsuccessfully in certain situations. In this thesis, we propose a novel active learning algorithm. Our proposed algorithm not only fades the weak points of the previous active learning algorithms, but also performs competitively among the widely known active learning algorithms while it is easy to implement.
103

Spécification, modélisation et analyse du dialogue entre agents par l'intermédiaire des engagements sociaux

Bergeron, Mathieu. 11 April 2018 (has links)
La communication entre agents est primordiale à l'intérieur des systèmes multiagents. Les agents d'un système multi-agents doivent communiquer pour se coordonner et pour échanger de l'information. Dans ce mémoire, nous avons travaillé à l'élaboration et à l'amélioration d'un langage de communication agent nommé DIAGAL (DIAlogue- Game based Agent Language) dont la sémantique se base sur les engagements sociaux. En fait, notre approche se base sur les jeux de dialogue qui sont des structures qui permettent la négociation d'engagements sociaux par le dialogue. Les agents peuvent donc, à l'aide des jeux de dialogue, communiquer pour créer, annuler ou modifier des engagements sociaux. De plus, nous proposons le concept de réseau d'engagements pour modéliser les conversations entre agents. Les réseaux d'engagements permettent de spécifier les dialogues à l'intérieur d'un système multi-agents en analysant les liens de causalité qui existent entre les différents engagements pouvant exister dans le système. Finalement, nous avons défini différentes métriques qui permettent d'analyser les dialogues entre agents.
104

Réseaux convolutifs à politiques

Pothier, Dominique 01 June 2021 (has links)
Malgré leurs excellentes performances, les exigences élevées des réseaux de neurones artificiels en terme de volume de données et de puissance de calcul limitent leur adoption dans plusieurs domaines. C'est pourquoi il reste important de développer de nouvelles architectures moins voraces. Ce mémoire cherche à produire une architecture plus flexible et moins vorace en s'appuyant sur la théorie de l'apprentissage par renforcement. En considérant le réseau comme un agent suivant une politique, on réalise que cette politique est beaucoup plus rigide que celle suivie habituellement par les agents d'apprentissage par renforcement. Nous posons l'hypothèse qu'une architecture capable de formuler une politique plus flexible pourrait atteindre des performances similaires tout en limitant son utilisation de ressources. L'architecture que nous proposons s'inspire de la recherche faite en prédiction de paramètres, particulièrement de l'architecture hypernetwork, que nous utilisons comme base de référence. Nos résultats montrent que l'apprentissage d'une politique dynamique aussi performante que les politiques statiques suivies par les réseaux conventionnels n'est pas une tâche triviale. Nos meilleurs résultats indiquent une diminution du nombre de paramètres de 33%, une diminution des calculs de 12% au prix d'une baisse de l'exactitude des prédictions de 2%. Malgré ces résultats, nous croyons que notre architecture est un point de départ pouvant être amélioré de plusieurs manières que nous explorons rapidement en conclusion. / Despite their excellent performances, artificial neural networks high demand of both data and computational power limit their adoption in many domains. Developing less demanding architecture thus remain an important endeavor. This thesis seeks to produce a more flexible and less resource-intensive architecture by using reinforcement learning theory. When considering a network as an agent instead of a function approximator, one realize that the implicit policy followed by popular feed forward networks is extremely simple. We hypothesize that an architecture able to learn a more flexible policy could reach similar performances while reducing its resource footprint. The architecture we propose is inspired by research done in weight prediction, particularly by the hypernetwork architecture, which we use as a baseline model.Our results show that learning a dynamic policy achieving similar results to the static policies of conventional networks is not a trivial task. Our proposed architecture succeeds in limiting its parameter space by 20%, but does so at the cost of a 24% computation increase and loss of5% accuracy. Despite those results, we believe that this architecture provides a baseline that can be improved in multiple ways that we describe in the conclusion.
105

Les textes générés par intelligence artificielle

Lebrun, Tom 24 January 2024 (has links)
Titre de l'écran-titre (visionné le 10 janvier 2023) / Cette thèse examine le statut littéraire et, dans une moindre mesure, juridique, des textes générés par intelligence artificielle (IA). Elle s'intéresse particulièrement aux textes créés par des méthodes de génération dites « par apprentissage », soit tout ce qui relève de l'apprentissage automatique, également appelé apprentissage machine ou apprentissage statistique. Elle pose l'hypothèse d'un nouveau type de littérature générative, qualifiée de génération par apprentissage, qui propose un rapport intertextuel inédit entre l'œuvre générée et ses sources et fait la preuve d'une autonomie nouvelle de l'œuvre par rapport à son auteur traditionnel autonomie qui se négocie au prix d'une dépendance accrue au corpus de sources utilisés pour l'entraînement du modèle d'IA utilisé. Cette autonomie est pour l'heure inédite dans l'histoire littéraire et n'avait, jusqu'ici, pas encore fait l'objet d'un examen scientifique systématique ; l'objet de cette thèse est de combler cette lacune doctrinale. La thèse examine donc ce que ce nouveau type de littérature en partie autonome par rapport à ses auteurs (mais dépendante envers les sources d'entraînement) fait à la littérature au travers de quatre chapitres distincts. Le chapitre 1 retrace l'histoire de la question de l'autonomie en littérature vue sous l'angle de la contrainte. Après un rappel de l'histoire littéraire en matière de génération informatique (de l'OuLiPo à l'Alamo), elle examine les différents types de génération de textes par informatique, distinguant la génération combinatoire, la génération automatique et la nouvelle génération dite « par apprentissage ». Dans le cas de chacun de ces types, le rôle du modèle informatique, des sources et de l'auteur sont examinés successivement, illustrant une autonomisation croissante du texte par rapport à son auteur. Le chapitre 2 examine le rapport d'appropriation des sources qu'impose tout modèle de génération par apprentissage et ses conséquences d'un point de vue littéraire, notamment par le biais des notions de transtextualité et de transfictionnalité. Trois grands types de textes générés par apprentissage sont distingués et décrits, chacun avec leurs propres spécificités qui permettent d'éclaircir la diversité des pratiques de ce nouveau type de littérature (le texte œuvre d'art, le texte édité, le texte appropriant). Le chapitre 3 est consacré à la question de l'autorité des textes générés par apprentissage, laquelle est remise en question par l'autonomie des créations vis-à-vis de leurs auteurs. Ce chapitre est l'occasion de recentrer le débat sur la posture d'auteurs qui doivent composer avec l'autonomie des systèmes qu'ils utilisent et la dépendance formelle des textes qu'ils produisent envers les sources. Ces auteurs usent de stratégies variées en fonction de leurs intentions, marquant par des discours spécifiques leur position face aux textes. Le chapitre 4 se focalise, quant à lui, sur la question de la lecture et de la réception des textes générés par apprentissage. La diversité de ces pratiques achève sans doute de prouver l'existence d'une grande variété de textes générés par apprentissage autant que leur caractère singulier appelant un renouveau théorique conséquent. Ce renouveau force en partie un retour vers les théories communicationnelles de la littérature, aussi critiquées qu'elles aient pu l'être ces dernières années. La thèse conclut conséquemment non seulement sur l'existence d'un nouveau type de texte littéraire, mais aussi sur la redéfinition profonde de la littérature qui en découle. / This thesis examines the literary and, to a lesser extent, legal status of texts generated by artificial intelligence (AI). It is particularly interested in texts created by so-called "machine learning" methods. It poses the hypothesis of a new type of generative literature, qualified as machine learning generated, which proposes a new intertextual relationship between the generated work and its sources and demonstrates a new autonomy of the work in relation to its traditional author an autonomy which is negotiated at the price of an increased dependence on the corpus of sources used to train the AI model used. This autonomy is, for the time being, unprecedented in literary history and has not, until now, been the subject of a systematic scientific examination; the purpose of this thesis is to fill this doctrinal gap. The thesis therefore examines what this new type of literature, partly autonomous from its authors (but dependent on training sources), does to literature through four distinct chapters. Chapter 1 traces the history of the question of autonomy in literature as seen through the lens of constraint. After a reminder of the literary history of computational generation (from OuLiPo to the Alamo), it examines the different types of computational generation of texts, distinguishing between combinatorial generation, automatic generation and the new so-called "learning" generation. In the case of each of these types, the role of the computer model, of the sources and of the author are examined successively, illustrating an increasing autonomy of the text with respect to its author. Chapter 2 examines the relationship of appropriation of the sources imposed by any model of generation by learning and its consequences from a literary point of view, notably through the notions of transtextuality and transfictionality. Three main types of texts generated by learning are distinguished and described, each with their own specificities that allow to clarify the diversity of the practices of this new type of literature (the work of art text, the edited text, the appropriating text). Chapter 3 is devoted to the question of the authority of texts generated by learning, which is called into question by the autonomy of creations vis-à-vis their authors. This chapter is an opportunity to refocus the debate on the posture of authors who have to deal with the autonomy of the systems they use and the formal dependence of the texts they produce on the sources. These authors use various strategies according to their intentions, marking by specific discourses their position in front of the texts. Chapter 4 focuses on the question of reading and receiving texts generated by learning. The diversity of these practices undoubtedly proves the existence of a vast diversity of texts generated by learning as much as their singular character calling for a consequent theoretical renewal. This renewal in part forces a return to communicative theories of literature, as criticized as they have been in recent years. The thesis therefore concludes not only on the existence of a new type of literary texts, but also on the profound redefinition of literature that follows from it.
106

Conjunctive Query Answering Under Existential Rules - Decidability, Complexity, and Algorithms

Thomazo, Michaël 24 October 2013 (has links) (PDF)
L'objectif du problème appelé "Ontology-based data access" (OBDA) est d'améliorer la réponse à des requêtes en prenant en compte des connaissances d'ordre général durant l'évaluation des requêtes. Ces connaissances générales sont représentées à l'aide d'une ontologie, qui est exprimée dans cette thèse grâce à des formules logiques du premier ordre, appelées règles existentielles, et aussi connues sous le nom de "tuple-generating dependencies" et Datalog+/-. L'expressivité des formules utilisées est telle que l'évaluation de requêtes devient un problème indécidable, et cela a conduit la communauté à définir de nombreux cas décidables, c'est-à-dire des restrictions sur les ensembles de règles existentielles considérés. La contribution de cette thèse est double : tout d'abord, nous proposons une vue unifiée sur une grande fraction des cas décidables connus, et fournissons par là même une analyse de complexité et un algorithme optimal dans le pire des cas. Nous considérons également l'approche couramment utilisée de réécriture de requêtes, et proposons un algorithme générique qui permet de surmonter certaines causes évidentes d'explosion combinatoire qui rendent les approches classiques pratiquement inapplicables.
107

Fusion de connaissances : Applications aux relevés photogrammétriques de fouilles archéologiques sous-marines

Seinturier, Julien 11 December 2007 (has links) (PDF)
Nous proposons dans ce travail une étude de la fusion de connaissances et ses applications aux relevés de fouilles archéologiques sous‐marines. Le cadre de ce travail est la mesure fondée sur la connaissance, pouvant être décrite comme la synthèse entre des modèles théoriques élaborés par des experts du domaine étudié et d'un ensemble d'observations effectuées sur les objets à relever. Lors de l'étude d'un site archéologique, les relevés peuvent être effectués par des opérateurs différents et à des moments différents. Cette multiplication des observations induit des risques d'incohérence lors de l'agrégation de tous les résultats (objets mesurés deux fois, objets mal identifiés, ...). La construction d'un résultat final nécessite la mise en place d'un processus de fusion piloté par le responsable de l'étude. Un tel pilotage doit être automatisé tout en laissant à l'opérateur le choix des méthodes de rétablissement de la cohérence. Ce travail est divisé en trois parties : une étude théorique des méthodes de fusion connues, la mise en place de méthodes de fusion dans le cadre de la mesure fondée sur la connaissance et l'expérimentation des solutions proposées lors de relevés dans des applications grandeur nature. Dans la première partie, nous proposons une étude théorique des techniques de fusion de croyances existantes et nous proposons un nouveau cadre de fusion réversible permettant d'exprimer de manière équivalente ces méthodes de fusion d'un point de vue sémantique et syntaxique. Ce cadre est basé sur des pondérations par des polynômes qui permettent de représenter à la fois les priorités entre les croyances mais aussi l'historique des changements de ces priorités. Dans la deuxième partie, nous détaillons la mesure fondée sur la connaissance en décrivant une représentation des connaissances basée sur la notion d'entité. Cette représentation est exprimée dans le modèle Objet ainsi que sous forme semi‐structurée en XML. Nous proposons ensuite des techniques de fusion adaptées à cette représentation. Ces techniques sont basées sur la logique propositionnelle et la logique des prédicats instanciés. Des algorithmes de fusion sont décrits et étudiés. Dans la dernière partie, nous présentons les expérimentations des techniques de fusion mises en place. Nous proposons une description des outils développés et utilisés dans le cadre du projet Européen VENUS (http://www.venus‐project.eu) mais aussi leurs extensions à l'archéologie du bâti et à la biologie sous‐marine.
108

Contributions to generative models and their applications

Che, Tong 10 1900 (has links)
Generative models are a large class of machine learning models for unsupervised learning. They have various applications in machine learning and artificial intelligence. In this thesis, we discuss many aspects of generative models and their applications to other machine learning problems. In particular, we discuss several important topics in generative models, including how to stabilize discrete GAN training with importance sampling, how to do better sampling from GANs using a connection with energy-based models, how to better train auto-regressive models with the help of an energy-based model formulation, as well as two applications of generative models to other machine learning problems, one about residual networks, the other about safety verification. / Les modèles génératifs sont une grande classe de modèles d’apprentissage automatique pour l’apprentissage non supervisé. Ils ont diverses applications dans l’apprentissage automatique et l’intelligence artificielle. Dans cette thèse, nous discutons de nombreux aspects des modèles génératifs et de leurs applications à d’autres problèmes d’apprentissage automatique. En particulier, nous discutons de plusieurs sujets importants dans les modèles génératifs, y compris comment stabiliser la formation GAN discrète avec un échantillonnage d’importance, comment faire un meilleur échantillonnage à partir de GAN en utilisant une connexion avec des modèles basés sur l’énergie, comment mieux former des modèles auto-régressifs avec l’aide d’une formulation de modèle basée sur l’énergie, ainsi que deux applications de modèles génératifs à d’autres problèmes d’apprentissage automatique, l’une sur les réseaux résiduels, l’autre sur la vérification de la sécurité.
109

Un Mécanisme Constructiviste d'Apprentissage Automatique d'Anticipations pour des Agents Artificiels Situés

Studzinski Perotto, Filipo 01 July 2010 (has links) (PDF)
Cette recherche se caractérise, premièrement, par une discussion théorique sur le concept d'agent autonome, basée sur des éléments issus des paradigmes de l'Intelligence Artificielle Située et de l'Intelligence Artificielle Affective. Ensuite, cette thèse présente le problème de l'apprentissage de modèles du monde, en passant en revue la littérature concernant les travaux qui s'y rapportent. À partir de ces discussions, l'architecture CAES et le mécanisme CALM sont présentés. CAES (Coupled Agent-Environment System) constitue une architecture pour décrire des systèmes basés sur la dichotomie agent-environnement. Il définit l'agent et l'environnement comme deux systèmes partiellement ouverts, en couplage dynamique. L'agent, à son tour, est composé de deux sous-systèmes, l'esprit et le corps, suivant les principes de la situativité et de la motivation intrinsèque. CALM (Constructivist Anticipatory Learning Mechanism) est un mécanisme d'apprentissage fondé sur l'approche constructiviste de l'Intelligence Artificielle. Il permet à un agent situé de construire un modèle du monde dans des environnements partiellement observables et partiellement déterministes, sous la forme d'un processus de décision markovien partiellement observable et factorisé (FPOMDP). Le modèle du monde construit est ensuite utilisé pour que l'agent puisse définir une politique d'action visant à améliorer sa propre performance.
110

Composition de Services Web: Une Approche basée Liens Sémantiques

Lécué, Freddy 08 October 2008 (has links) (PDF)
La composition automatisée de services Web ou le processus de formation de nouveaux services Web à plus forte valeure ajoutée est l'un des plus grand défis auxquels le Web sémantique est face aujourd'hui. La sémantique permet d'un côte de décrire les capacités des services Web mais aussi leurs processus d'exécution, d'où un élément clé pour la composition automatique de services Web. Dans cette étude de doctorat, nous nous concentrons sur la description fonctionnelle des services Web c'est-à-dire, les services sont vus comme une fonction ayant des paramètres i) d'entrée, de sortie sémantiquement annotés par des concepts d'une ontologie de domaine et ii) des conditions préalables et effets conditionnels sur le monde. La composition de services Web est alors considérée comme une composition des liens sémantiques où les lois de cause à effets ont aussi un rôle prépondérant. L'idée maîtresse est que les liens sémantiques et les lois causales permettent, au moment de l'exécution, de trouver des compatibilités sémantiques, indépendamment des descriptions des services Web. En considérant un tel niveau de composition, nous étudions tout d'abord les liens sémantiques, et plus particulièrement leurs propriétés liées à la validité et la robustesse. A partir de là et dépendant de l'expressivité des services Web, nous nous concentrons sur deux approches différentes pour effectuer la composition de services Web. Lors de la première approche, un modèle formel pour effectuer la composition automatique de services Web par le biais de liens sémantiques i.e., Matrice de liens sémantiques est introduite. Cette matrice est nécessaire comme point de départ pour appliquer des approches de recherche basées sur la régression (ou progression). Le modèle prend en charge un contexte sémantique et met l'accent sur les liens sémantiques afin de trouver des plans corrects, complets, cohérents et robustes comme solutions au problème de composition de services Web. Dans cette partie un modèle formel pour la planification et composition de services Web est présenté. Dans la seconde approche, en plus de liens sémantiques, nous considérons les lois de causalité entre effets et pré-conditions de services Web pour obtenir les compositions valides de services Web. Pour ceci, une version étendue et adaptée du langage de programmation logique Golog (ici sslGolog) est présentée comme un formalisme naturel non seulement pour le raisonnement sur les liens sémantiques et les lois causales, mais aussi pour composer automatiquement les services Web. sslGolog fonctionne comme un interprète qui prend en charge les paramètres de sortie de services pour calculer les compositions conditionnelles de services. Cette approche (beaucoup plus restrictive) suppose plus d'expressivité sur la description de service Web. Enfin, nous considérons la qualité des liens sémantiques impliqués dans la composition comme critère novateur et distinctif pour estimer la qualité sémantique des compositions calculées. Ainsi les critères non fonctionnels tels que la qualité de service(QoS) ne sont plus considérés comme les seuls critères permettant de classer les compositions satisfaisant le même objectif. Dans cette partie, nous nous concentrons sur la qualité des liens sémantiques appartenant à la composition de service Web. Pour ceci, nous présentons un modèle extensible permettant d'évaluer la qualité des liens sémantiques ainsi que leur composition. De ce fait, nous introduisons une approche fondée sur la sélection de liens sémantiques afin de calculer la composition optimale. Ce problème est formulé comme un problème d'optimisation qui est résolu à l'aide de la méthode par programmation linéaire entière. Notre système est mis en œuvre et interagit avec des services Web portant sur de scénarios de télécommunications. Les résultats de l'évaluation a montré une grande efficacité des différentes approches proposées.

Page generated in 0.084 seconds