• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 406
  • 291
  • 116
  • 4
  • 3
  • Tagged with
  • 873
  • 873
  • 530
  • 321
  • 310
  • 284
  • 267
  • 263
  • 242
  • 217
  • 207
  • 205
  • 202
  • 200
  • 197
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Time map phonology : finite state models and event logics in speech recognition /

Carson-Berndsen, Julie. January 1998 (has links)
Texte remanié de: Doct. th., 1993. / Bibliogr. p. 227-241. Index.
92

Deklarative prosodische Morphologie : Constraint-basierte Analysen und Computermodelle zum Finnischen und Tigrinya /

Walther, Markus, January 1999 (has links)
Texte remanié de: Diss.--Düsseldorf Universität, 1997. / Bibliogr. p. [261]-272.
93

Fuzzy logic pattern in text and image data analysis / Motifs de la logique floue pour l'analyse des sentiments et en imagerie

Nderu, Lawrence 14 December 2015 (has links)
La logique floue est aujourd'hui universellement admise comme discipline ayant fait ses preuves à l'intersection des mathématiques, de l'informatique, des sciences cognitives et de l'Intelligence Artificielle. En termes formels, la logique floue est une extension de la logique classique ayant pour but de mesurer la flexibilité du raisonnement humain, et permettant la modélisation des imperfections des données, en particulier, les deux imperfections les plus fréquentes : l'imprécision et l'incertitude. En outre, la logique floue ignore le principe du tiers exclu et celui de non-contradiction.Nous n'allons pas, dans ce court résumé de la thèse, reprendre et définir tous les concepts de cet outil devenu désormais classique : fonction d'appartenance, degré d'appartenance, variable linguistique, opérateurs flous, fuzzyfication, défuzzication, raisonnement approximatif … L'un des concepts de base de cette logique est la notion de possibilité qui permet de modéliser la fonction d'appartenance d'un concept. La possibilité d'un événement diffère de sa probabilité dans la mesure où elle n'est pas intimement liée à celle de l'événement contraire. Ainsi, par exemple, si la probabilité qu'il pleuve demain est de 0,6, alors la probabilité qu'il ne pleuve pas doit être égale à 0,4 tandis que les possibilités qu'il pleuve demain ou non peuvent toutes les deux être égales à 1 (ou encore deux autres valeurs dont la somme peut dépasser 1).Dans le domaine de l'informatique, l'apprentissage non supervisé (ou « clustering ») est une méthode d'apprentissage automatique quasi-autonome. Il s'agit pour un algorithme de diviser un groupe de données, en sous-groupes de manière que les données considérées comme les plus similaires soient associées au sein d'un groupe homogène. Une fois que l'algorithme propose ces différents regroupements, le rôle de l'expert ou du groupe d'experts est alors de nommer chaque groupe, éventuellement diviser certains ou de regrouper certains, afin de créer des classes. Les classes deviennent réelles une fois que l'algorithme a fonctionné et que l'expert les a nommées.Encore une fois, notre travail, comme tous les travaux du domaine, vise à adapter les modèles traditionnelles d'apprentissage et/ou de raisonnement à l'imprécision du monde réel. L'analyse des sentiments à partir de ressources textuelles et les images dans le cadre de l'agriculture de précision nous ont permis d'illustrer nos hypothèses. L'introduction par le biais de notre travail du concept de motifs flous est sans aucun doute une contribution majeure.Ce travail a donné lieu à trois contributions majeures : / Standard (type-1) fuzzy sets were introduced to mimic human reasoning in its use of approximate information and uncertainty to generate decisions. Since knowledge can be expressed in a natural way by using fuzzy sets, many decision problems can be greatly simpli_ed. However, standard type-1 fuzzy sets have limitations when it comes to modelinghuman decision making.When Zadeh introduced the idea of higher types of fuzzy sets called type-n fuzzy sets andtype-2 fuzzy sets, the objective was to solve problems associated with modeling uncertainty using crisp membership functions of type-1 fuzzy sets. The extra dimension presented by type-2 fuzzy sets provides more design freedom and exibility than type-1 fuzzy sets. The ability of FLS to be hybridized with other methods extended the usage of Fuzzy LogicSystems (FLS) in many application domains. In architecture and software engineering the concept of patterns was introduced as a way of creating general repeatable solutions to commonly occurring problems in the respective_elds. In software engineering for example, the design pattern is not a _nished design that can be transformed directly into code. It is a description or template on how to solve a problem that can be used in many di_erent situations. This thesis introduces the novel concept of fuzzy patterns in T2 FLS. Micro-blogs and social media platforms are now considered among the most popular forms of online communication. Through a platform like TwitterTM much information reecting people's opinions and attitudes is published and shared among users on a daily basis. This has brought great opportunities to companies interested in tracking and monitoring the reputation of their brands and businesses, and to policy makers and politicians to support their assessment of public opinions about their policies or political issues. Thisresearch demonstrates the importance of the neutral category in sentiment polarity analysis, it then introduces the concept of fuzzy patterns in sentiment polarity analysis. The xvii Interval Type-2 Fuzzy Set (IT2 FS), were proposed by reference [Men07c] to model words. This is because it is characterized by its Footprint Of Uncertainty (FOU). The FOU providesa potential to capture word uncertainties. The use of IT2 FS in polarity sentiment classi_cation is demonstrated. The importance of the neutral category is demonstrated in both supervised and unsupervised learning methods. In the _nal section the concept of fuzzy patterns in contrast
94

Online Dynamic Algorithm Portfolios: Minimizing the computational cost of problem solving

Gagliolo, Matteo 24 March 2010 (has links)
This thesis presents methods for minimizing the computational effort of problem solving. Rather than looking at a particular algorithm, we consider the issue of computational complexity at a higher level, and propose techniques that, given a set of candidate algorithms, of unknown performance, learn to use these algorithms while solving a sequence of problem instances, with the aim of solving all instances in a minimum time. An analogous meta-level approach to problem solving has been adopted in many different fields, with different aims and terminology. A widely accepted term to describe it is algorithm selection. Algorithm portfolios represent a more general framework, in which computation time is allocated to a set of algorithms running on one or more processors.Automating algorithm selection is an old dream of the AI community, which has been brought closer to reality in the last decade. Most available selection techniques are based on a model of algorithm performance, assumed to be available, or learned during a separate offline training sequence, which is often prohibitively expensive. The model is used to perform a static allocation of resources, with no feedback from the actual execution of the algorithms. There is a trade-off between the performance of model-based selection, and the cost of learning the model. In this thesis, we formulate this trade-off as a bandit problem.We propose GambleTA, a fully dynamic and online algorithm portfolio selection technique, with no separate training phase: all candidate algorithms are run in parallel, while a model incrementally learns their runtime distributions. A redundant set of time allocators uses the partially trained model to optimize machine time shares for the algorithms, in order to minimize runtime. A bandit problem solver picks the allocator to use on each instance, gradually increasing the impact of the best time allocators as the model improves. A similar approach is adopted for learning restart strategies online (GambleR). In both cases, the runtime distributions are modeled using survival analysis techniques; unsuccessful runs are correctly considered as censored runtime observations, allowing to save further computation time.The methods proposed are validated with several experiments, mostly based on data from solver competitions, displaying a robust performance in a variety of settings, and showing that rough performance models already allow to allocate resources efficiently, reducing the risk of wasting computation time. / Permanent URL: http://doc.rero.ch/record/20245 / info:eu-repo/semantics/nonPublished
95

Per Instance Algorithm Configuration for Continuous Black Box Optimization / Paramétrage automatisé d'algorithme par instance pour l'optimisation numérique boite noire

Belkhir, Nacim 20 November 2017 (has links)
Cette thèse porte sur la configurationAutomatisée des algorithmes qui vise à trouver le meilleur paramétrage à un problème donné ou une catégorie deproblèmes.Le problème de configuration de l'algorithme revient doncà un problème de métaFoptimisation dans l'espace desparamètres, dont le métaFobjectif est la mesure deperformance de l’algorithme donné avec une configuration de paramètres donnée.Des approches plus récentes reposent sur une description des problèmes et ont pour but d’apprendre la relationentre l’espace des caractéristiques des problèmes etl’espace des configurations de l’algorithme à paramétrer.Cette thèse de doctorat porter le CAPI (Configurationd'Algorithme Par Instance) pour résoudre des problèmesd'optimisation de boîte noire continus, où seul un budgetlimité d'évaluations de fonctions est disponible. Nous étudions d'abord' les algorithmes évolutionnairesPour l'optimisation continue, en mettant l'accent sur deux algorithmes que nous avons utilisés comme algorithmecible pour CAPI,DE et CMAFES.Ensuite, nous passons en revue l'état de l'art desapproches de configuration d'algorithme, et lesdifférentes fonctionnalités qui ont été proposées dansla littérature pour décrire les problèmesd'optimisation de boîte noire continue.Nous introduisons ensuite une méthodologie générale Pour étudier empiriquement le CAPI pour le domainecontinu, de sorte que toutes les composantes du CAPIpuissent être explorées dans des conditions réelles.À cette fin, nous introduisons également un nouveau Banc d'essai de boîte noire continue, distinct ducélèbre benchmark BBOB, qui est composé deplusieurs fonctions de test multidimensionnelles avec'différentes propriétés problématiques, issues de lalittérature.La méthodologie proposée est finalement appliquée 'àdeux AES. La méthodologie est ainsi, validéempiriquement sur le nouveau banc d’essaid’optimisation boîte noire pour des dimensions allant jusqu’à 100. / This PhD thesis focuses on the automated algorithm configuration that aims at finding the best parameter setting for a given problem or a' class of problem. The Algorithm Configuration problem thus amounts to a metal Foptimization problem in the space of parameters, whosemetaFobjective is the performance measure of the given algorithm at hand with a given parameter configuration. However, in the continuous domain, such method can only be empirically assessed at the cost of running the algorithm on some problem instances. More recent approaches rely on a description of problems in some features space, and try to learn a mapping from this feature space onto the space of parameter configurations of the algorithm at hand. Along these lines, this PhD thesis focuses on the Per Instance Algorithm Configuration (PIAC) for solving continuous black boxoptimization problems, where only a limited budget confessionnalisations available. We first survey Evolutionary Algorithms for continuous optimization, with a focus on two algorithms that we have used as target algorithm for PIAC, DE and CMAFES. Next, we review the state of the art of Algorithm Configuration approaches, and the different features that have been proposed in the literature to describe continuous black box optimization problems. We then introduce a general methodology to empirically study PIAC for the continuous domain, so that all the components of PIAC can be explored in real Fworld conditions. To this end, we also introduce a new continuous black box test bench, distinct from the famous BBOB'benchmark, that is composed of a several multiFdimensional test functions with different problem properties, gathered from the literature. The methodology is finally applied to two EAS. First we use Differential Evolution as'target algorithm, and explore all the components of PIAC, such that we empirically assess the best. Second, based on the results on DE, we empirically investigate PIAC with Covariance Matrix Adaptation Evolution Strategy (CMAFES) as target algorithm. Both use cases empirically validate the proposed methodology on the new black box testbench for dimensions up to100.
96

Le monde de Turing. Une critique de la raison artificielle

Quintilla, Yann 11 October 2021 (has links) (PDF)
Face à la révolution numérique qui parcourt l’aube de ce nouveau siècle, des mutations s’engagent, soulevant de nouvelles questions pour l’humanité. Les postulats humanistes et les propositions des Lumières vont venir éclairer le questionnement autour de l’augmentation de l’Homme porté par le transhumanisme.Nous allons explorer en quoi ces thèses ont enclenché depuis plusieurs siècles une réification de l’Homme et de son monde. La révolution technique entreprise par Turing et celle philosophique, portée par la cybernétique, vont venir proposer une vision algorithmique de l’Homme et de sa réalité. Ce que nous avons appelé le Monde de Turing en est l’aboutissement, faisant de l’homme informationnel, le cybernanthrope, son esclave. Face au totalitarisme libéral de la techné, nous avons identifié un postulat éthique porté par ce que nous avons appelé le delta de Turing. Dès lors, il est possible et nécessaire de faire une critique de la raison artificielle donnant naissance à une éthique pratique de la vertu partagée. Ensuite, nous pourrons analyser comment l’intelligence artificielle peut nous aider à créer une éthique pragmatique des valeurs partagées entre Homme et Machine. / Doctorat en Philosophie / info:eu-repo/semantics/nonPublished
97

A General Machine Reading Comprehension pipeline

Debruyker, Roxane 19 September 2022 (has links)
Savoir lire est une compétence qui va de la capacité à décoder des caractères à la compréhension profonde du sens de textes. Avec l'émergence de l'intelligence artificielle, deux questions se posent : Comment peut-on apprendre à une intelligence artificielle à lire? Qu'est-ce que cela implique? En essayant de répondre à ces questions, une première évidence nous est rappelée : savoir lire ne peut pas se réduire à savoir répondre à des questions sur des textes. Étant donné que les modèles d'apprentissage machine apprennent avec des exemples d'essai erreur, ils vont apprendre à lire en apprenant à répondre correctement à des questions sur des textes. Cependant, il ne faut pas perdre de vue que savoir lire, c'est comprendre différents types de textes et c'est cette compréhension qui permet de répondre à des questions sur un texte. En d'autres termes, répondre à des questions sur des textes est un des moyens d'évaluation de la compétence de lecture plus qu'une fin en soi. Aujourd'hui, il existe différents types de jeux de données qui sont utilisées pour apprendre à des intelligences artificielles à apprendre à lire. Celles ci proposent des textes avec des questions associées qui requièrent différents types de raisonnement : associations lexicales, déductions à partir d'indices disséminés dans le texte, paraphrase, etc. Le problème est que lorsqu'une intelligence artificielle apprend à partir d'un seul de ces jeux de données, elle n'apprend pas à lire mais est plutôt formée à répondre à un type de question, sur un certain type de texte et avec un certain style d'écriture. Outre la problématique de la généralisation des compétences de lecture, les modèles d'intelligence artificielle qui apprennent à lire en apprenant à répondre à des questions retournent des réponses sans systématiquement indiquer sur quelles phrases du texte sources ils se basent. Cela pose un problème d'explicabilité et peut entrainer une mécompréhension des capacités de ces modèles. Dans ce mémoire, nous proposons de résoudre le problème de généralisation de l'apprentissage en proposant une méthodologie générale adaptée à n'importe quel jeu de données. Ainsi, en ayant une méthodologie commune à tous les types de jeux de données pour apprendre à répondre à tout type de question, sur tout type de texte, nous pourrions apprendre aux modèles d'intelligence artificielle à se concentrer sur les compétences générales de lecture plutôt que sur la capacité spécifique à répondre aux questions. Afin de résoudre également le problème de l'explicabilité, la méthodologie que nous proposons impose à tout modèle de compréhension de lecture automatique de renvoyer les extraits du texte source sur lequel ces réponses sont basées. / Reading is a skill that ranges from the ability to decode characters to a deep understanding of the meaning of a text. With the emergence of artificial intelligence, two questions arise: How can an artificial intelligence be taught to read? What does this imply? In trying to answer these questions, we are reminded of the obvious: knowing how to read cannot be reduced to knowing how to answer questions about texts. Since machine learning models learn with trial-and-error examples, they will learn to read by learning to answer correctly questions about the text they read. However, one should not forget the fact that knowing how to read means understanding different types of texts sufficiently well, and it is this that enables answering questions about a text. In other words, answering questions about texts is one of the means of assessing reading skills rather than an end in itself. Today, there are different types of datasets that are used to teach artificial intelligences to learn to read. These provide texts with associated questions that require different types of reasoning: lexical associations, deductions from discrete clues in the text, paraphrasing, etc. The problem is that when an artificial intelligence learns from only one of these datasets, it does not learn to read but is instead trained to answer a certain type of question, on a certain type of text and with a certain writing style. In addition to the problem of generalizing reading skills, artificial intelligence models that learn to read by learning to answer questions return answers without systematically indicating which sentences in the source text they are based on. This poses a problem of explicability and can lead to a misunderstanding of the capabilities of these models. In this thesis, we propose to solve the generalization issue of learning from one dataset by proposing a general methodology suiting to any machine reading comprehension dataset. Thus, by having a methodology common to all types of datasets to learn how to answer any type of question, on any type of text, we could teach artificial intelligence models to focus on general reading skills rather than on the specific ability to answer questions. In order to also solve the issue of explanability, the methodology we propose impose any machine reading comprehension model to return the span of the source text its answers are based on.
98

Modèle dynamique de pilotage d'un système multiagents semi-compétitifs

Barouni, Foued 12 April 2018 (has links)
Un système multiagents (SMA) est constitué de plusieurs agents qui interagissent dans un environnement pour atteindre leurs objectifs. Une interaction peut être une coopération si les agents coopèrent. L'interaction peut aussi être une négociation si les agents sont en compétition. Il est toutefois possible que les agents soient situés dans un environnement semi compétitif où ils peuvent, à la fois, coopérer et être en compétition. Dans ce mémoire, nous présentons un modèle dynamique de pilotage d'un SMA semicompétitif qui permet à l'agent de choisir ses partenaires d'interaction et d'élaborer son comportement vis-à-vis des agents. Le modèle ainsi développé est basé sur l'évaluation de la réputation des agents. Si l'agent est bien réputé, alors il constituera un bon partenaire d'interaction. L'évaluation de la réputation est effectuée à partir de plusieurs sources d'informations comme l'historique des expériences directes avec l'agent à évaluer, et le témoignage des autres agents de la société classés selon des groupes. Le modèle dynamique de pilotage a été validé en considérant les trois scénarios les plus représentatifs du contexte étudié. Le premier scénario suppose qu'il n'existe aucune collaboration entre les agents (1). Le deuxième scénario implique les agents dans une relation de compétition (2). Enfin, le troisième scénario utilise le modèle dynamique de pilotage pour permettre à l'agent de choisir son comportement vis-à-vis ses partenaires d'interaction (3). Les résultats de la simulation ont montré que les agents ayant des bonnes réputations ont gagné en termes d'utilité. / A multi-agent system (MAS) consists of several agents interacting in an environment to achieve their goals. An interaction can be cooperation if the agents cooperate. It can be also a negotiation if the agents are in competition. However, it is possible that the agents are located in a semi-competitive environment. They can both be in competition and cooperate. In this memory, we present a dynamic model of piloting a semicompetitive MAS which allows the agent to choose its interaction partners and to define its behaviour towards the agents. This developed model is based on the evaluation of the reputation of the agents. If the agent has a good reputation, then it will be considered as a good interaction partner. The evaluation of the reputation is carried out starting from several sources of information like the direct experience with the evaluated agent and the witness of the other agents. The dynamic model was validated by a simulation of three scenarios. The first scenario supposes that there is not any collaboration between the agents. The second scenario implies the agents in competition. Lastly, the third scenario uses the dynamic model of piloting to allow agent to choose its behaviour toward its interaction partners. The simulation results showed that the agents having good reputations improved their utility.
99

Réseaux convolutifs à politiques

Pothier, Dominique 01 June 2021 (has links)
Malgré leurs excellentes performances, les exigences élevées des réseaux de neurones artificiels en terme de volume de données et de puissance de calcul limitent leur adoption dans plusieurs domaines. C'est pourquoi il reste important de développer de nouvelles architectures moins voraces. Ce mémoire cherche à produire une architecture plus flexible et moins vorace en s'appuyant sur la théorie de l'apprentissage par renforcement. En considérant le réseau comme un agent suivant une politique, on réalise que cette politique est beaucoup plus rigide que celle suivie habituellement par les agents d'apprentissage par renforcement. Nous posons l'hypothèse qu'une architecture capable de formuler une politique plus flexible pourrait atteindre des performances similaires tout en limitant son utilisation de ressources. L'architecture que nous proposons s'inspire de la recherche faite en prédiction de paramètres, particulièrement de l'architecture hypernetwork, que nous utilisons comme base de référence. Nos résultats montrent que l'apprentissage d'une politique dynamique aussi performante que les politiques statiques suivies par les réseaux conventionnels n'est pas une tâche triviale. Nos meilleurs résultats indiquent une diminution du nombre de paramètres de 33%, une diminution des calculs de 12% au prix d'une baisse de l'exactitude des prédictions de 2%. Malgré ces résultats, nous croyons que notre architecture est un point de départ pouvant être amélioré de plusieurs manières que nous explorons rapidement en conclusion. / Despite their excellent performances, artificial neural networks high demand of both data and computational power limit their adoption in many domains. Developing less demanding architecture thus remain an important endeavor. This thesis seeks to produce a more flexible and less resource-intensive architecture by using reinforcement learning theory. When considering a network as an agent instead of a function approximator, one realize that the implicit policy followed by popular feed forward networks is extremely simple. We hypothesize that an architecture able to learn a more flexible policy could reach similar performances while reducing its resource footprint. The architecture we propose is inspired by research done in weight prediction, particularly by the hypernetwork architecture, which we use as a baseline model.Our results show that learning a dynamic policy achieving similar results to the static policies of conventional networks is not a trivial task. Our proposed architecture succeeds in limiting its parameter space by 20%, but does so at the cost of a 24% computation increase and loss of5% accuracy. Despite those results, we believe that this architecture provides a baseline that can be improved in multiple ways that we describe in the conclusion.
100

Les textes générés par intelligence artificielle

Lebrun, Tom 24 January 2024 (has links)
Titre de l'écran-titre (visionné le 10 janvier 2023) / Cette thèse examine le statut littéraire et, dans une moindre mesure, juridique, des textes générés par intelligence artificielle (IA). Elle s'intéresse particulièrement aux textes créés par des méthodes de génération dites « par apprentissage », soit tout ce qui relève de l'apprentissage automatique, également appelé apprentissage machine ou apprentissage statistique. Elle pose l'hypothèse d'un nouveau type de littérature générative, qualifiée de génération par apprentissage, qui propose un rapport intertextuel inédit entre l'œuvre générée et ses sources et fait la preuve d'une autonomie nouvelle de l'œuvre par rapport à son auteur traditionnel autonomie qui se négocie au prix d'une dépendance accrue au corpus de sources utilisés pour l'entraînement du modèle d'IA utilisé. Cette autonomie est pour l'heure inédite dans l'histoire littéraire et n'avait, jusqu'ici, pas encore fait l'objet d'un examen scientifique systématique ; l'objet de cette thèse est de combler cette lacune doctrinale. La thèse examine donc ce que ce nouveau type de littérature en partie autonome par rapport à ses auteurs (mais dépendante envers les sources d'entraînement) fait à la littérature au travers de quatre chapitres distincts. Le chapitre 1 retrace l'histoire de la question de l'autonomie en littérature vue sous l'angle de la contrainte. Après un rappel de l'histoire littéraire en matière de génération informatique (de l'OuLiPo à l'Alamo), elle examine les différents types de génération de textes par informatique, distinguant la génération combinatoire, la génération automatique et la nouvelle génération dite « par apprentissage ». Dans le cas de chacun de ces types, le rôle du modèle informatique, des sources et de l'auteur sont examinés successivement, illustrant une autonomisation croissante du texte par rapport à son auteur. Le chapitre 2 examine le rapport d'appropriation des sources qu'impose tout modèle de génération par apprentissage et ses conséquences d'un point de vue littéraire, notamment par le biais des notions de transtextualité et de transfictionnalité. Trois grands types de textes générés par apprentissage sont distingués et décrits, chacun avec leurs propres spécificités qui permettent d'éclaircir la diversité des pratiques de ce nouveau type de littérature (le texte œuvre d'art, le texte édité, le texte appropriant). Le chapitre 3 est consacré à la question de l'autorité des textes générés par apprentissage, laquelle est remise en question par l'autonomie des créations vis-à-vis de leurs auteurs. Ce chapitre est l'occasion de recentrer le débat sur la posture d'auteurs qui doivent composer avec l'autonomie des systèmes qu'ils utilisent et la dépendance formelle des textes qu'ils produisent envers les sources. Ces auteurs usent de stratégies variées en fonction de leurs intentions, marquant par des discours spécifiques leur position face aux textes. Le chapitre 4 se focalise, quant à lui, sur la question de la lecture et de la réception des textes générés par apprentissage. La diversité de ces pratiques achève sans doute de prouver l'existence d'une grande variété de textes générés par apprentissage autant que leur caractère singulier appelant un renouveau théorique conséquent. Ce renouveau force en partie un retour vers les théories communicationnelles de la littérature, aussi critiquées qu'elles aient pu l'être ces dernières années. La thèse conclut conséquemment non seulement sur l'existence d'un nouveau type de texte littéraire, mais aussi sur la redéfinition profonde de la littérature qui en découle. / This thesis examines the literary and, to a lesser extent, legal status of texts generated by artificial intelligence (AI). It is particularly interested in texts created by so-called "machine learning" methods. It poses the hypothesis of a new type of generative literature, qualified as machine learning generated, which proposes a new intertextual relationship between the generated work and its sources and demonstrates a new autonomy of the work in relation to its traditional author an autonomy which is negotiated at the price of an increased dependence on the corpus of sources used to train the AI model used. This autonomy is, for the time being, unprecedented in literary history and has not, until now, been the subject of a systematic scientific examination; the purpose of this thesis is to fill this doctrinal gap. The thesis therefore examines what this new type of literature, partly autonomous from its authors (but dependent on training sources), does to literature through four distinct chapters. Chapter 1 traces the history of the question of autonomy in literature as seen through the lens of constraint. After a reminder of the literary history of computational generation (from OuLiPo to the Alamo), it examines the different types of computational generation of texts, distinguishing between combinatorial generation, automatic generation and the new so-called "learning" generation. In the case of each of these types, the role of the computer model, of the sources and of the author are examined successively, illustrating an increasing autonomy of the text with respect to its author. Chapter 2 examines the relationship of appropriation of the sources imposed by any model of generation by learning and its consequences from a literary point of view, notably through the notions of transtextuality and transfictionality. Three main types of texts generated by learning are distinguished and described, each with their own specificities that allow to clarify the diversity of the practices of this new type of literature (the work of art text, the edited text, the appropriating text). Chapter 3 is devoted to the question of the authority of texts generated by learning, which is called into question by the autonomy of creations vis-à-vis their authors. This chapter is an opportunity to refocus the debate on the posture of authors who have to deal with the autonomy of the systems they use and the formal dependence of the texts they produce on the sources. These authors use various strategies according to their intentions, marking by specific discourses their position in front of the texts. Chapter 4 focuses on the question of reading and receiving texts generated by learning. The diversity of these practices undoubtedly proves the existence of a vast diversity of texts generated by learning as much as their singular character calling for a consequent theoretical renewal. This renewal in part forces a return to communicative theories of literature, as criticized as they have been in recent years. The thesis therefore concludes not only on the existence of a new type of literary texts, but also on the profound redefinition of literature that follows from it.

Page generated in 0.1078 seconds