• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 409
  • 322
  • 128
  • 4
  • 3
  • Tagged with
  • 919
  • 919
  • 569
  • 350
  • 349
  • 311
  • 298
  • 263
  • 243
  • 217
  • 211
  • 209
  • 208
  • 202
  • 200
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
231

Apprentissage d'une politique de gestion de ressources en temps réel : application au combat maritime

Cinq-Mars, Patrick 17 April 2018 (has links)
Dans le secteur de la défense, la majorité des processus de combat soulèvent des problèmes complexes, comme l'allocation de ressources. Le projet NEREUS cherche des méthodologies de planification et d'exécution de stratégies pour le centre de commandement et de contrôle (C2) d'une frégate canadienne. L'approche par apprentissage proposée dans ee mémoire permet de constater que de nouvelles stratégies découvertes par expérimentation peuvent se comparer à des doctrines préalablement conçues. Les processus de decision de Markov ont été utilisés pour construire un cadre de développement et modéliser des agents capables d'agir dans des environnements en temps réel. Un agent basé sur l'apprentissage par renforcement a donc été évalué dans un environnement de simulation de combat maritime et un formalisme issu du Weapon-Target Assignment a été utilisé pour définir le problème en temps réel.
232

Developping 2D and 3D multiagent geosimulation, a method and its application : the case of shopping behavior geosimulation in Square One Mall (Toronto)

Ali, Walid 12 April 2018 (has links)
Dans cette thèse, nous proposons une méthode générique de développement d‘applications de géosimulation, en 2D et 3D, de divers phénomènes ou comportements complexes (exp. comportements humains) dans des environnements géographiques. Notre travail vise à résoudre quelques problèmes dans le domaine de la simulation informatique et, plus particulièrement, dans le domaine de la simulation multiagent. Les principaux problèmes que nous visons à résoudre dans cette thèse sont: - Absence de méthodes génériques de développement de simulations multiagent de phénomènes ou comportements dans des environnements géographiques. - Manque de techniques de collecte et d’analyse des données spatiales et non-spatiales : (1) données en entrée de la géosimulation multiagent (qui sont utilisées pour alimenter la simulation) ou (2) données en sortie de la géosimulation (qui sont générées par cette simulation). - Absence d’un prototype de géosimulation qui peut être, à la fois, ‘réaliste’ et ‘utile’ pour simuler le comportement du magasinage des êtres humains dans un environnement georéférencé représentant un centre commercial. L’idée principale de notre thèse consiste en: (1) la création d’une méthode générique de développement de géosimulations multiagents, en 2D et 3D, des phénomènes complexes (impliquant par exemple des êtres humains) dans des environnements géographiques et (2) l’application de cette méthode en utilisant le comportement de magasinage dans un centre commercial comme cas d’illustration. Cette méthode contient dix étapes qui sont résumées comme suit : Les trois premières étapes ont pour objectifs de (1) définir les besoins des utilisateurs finaux de la géosimulation, (2) d’identifier les caractéristiques du phénomène à simuler ainsi que celles de son environnement, et (3) de créer un modèle à base d’agents représentent le phénomène à simuler ainsi que son environnement. La quatrième étape vise à sélectionner l’outil de simulation qui va être utilisé pour exécuter les modèles de simulation. Dans la cinquième étape, nous collectons les données spatiales et non-spatiales qui doivent servir à alimenter les modèles de géosimulation. Dans cette étape nous effectuons quelques analyses des données collectées afin de déterminer quelques patrons de comportement du phénomène à simuler. Dans la sixième étape, nous développons le prototype de géosimulation en exécutant les modèles de géosimulation dans la plateforme sélectionnée tout en utilisant les données qui ont été collectées et analysées. Dans la septième étape, nous utilisons une autre fois la technologie multiagent afin de collecter des données spatiales et non-spatiales en sortie de la géosimulation. Ces données contiennent des informations pertinentes concernant le déroulement de la géosimulation. Dans cette étape nous utilisons diverses techniques d’analyse de données spatiales et non-spatiales afin d’analyser ces données. Dans l’illustration de notre méthode nous avons proposé l’utilisation de techniques d’analyse suivantes: techniques/outils statistiques et mathématiques traditionnelles (ou classiques), notre propre technique/outil et d’analyse des données spatiales et non-spatiales, les techniques d’analyse OLAP (On Line Analytical Processing) et SOLAP (Spatial On Line Analytical Processing). Afin d’assurer la fiabilité des modèles de simulation, nous proposons dans notre méthode une huitième étape qui vise à vérifier et valider les modèles de géosimulation. Dans la neuvième étape, nous testons et nous documentons le prototype de géosimulation. Finalement, dans la dixième étape, les utilisateurs finaux peuvent utiliser la géosimulation multiagent comme outil d’aide à la décision. Ces décisions peuvent concerner le phénomène à simuler ou la configuration spatiale de son environnement. Les principales contributions de cette thèse sont : - Une nouvelle méthode de développement d’applications de géosimulation multiagent, en 2D et 3D, des phénomènes complexes (tels que ceux qui impliquent des comportements humains) dans des environnements géographiques. - Quelques modèles représentant le comportement du magasinage dans un centre commercial qui se basent sur une recherche bibliographique solide dans divers domaines de recherche: Une version intégrée du modèle du comportement du magasinage dans un centre commercial, Deux versions du modèle multiagent du comportement du magasinage (la première est indépendante de la plate-forme qui va être utilisée pour exécuter la simulation et la deuxième est dépendante). - Une application de la méthode proposée en utilisant le comportement du magasinage dans un centre commercial comme cas d’illustration. Le cas de test qui a servi pour développer le prototype de simulation est le centre commercial Square One (Toronto). Ce prototype ‘réaliste’ et ‘utile’ est intitulé Mall_MAGS. - Une technique à base de questionnaire pour collecter des données spatiales et non-spatiales qui servent à alimenter des géosimulations. - Un outil qui permet de saisir, simultanément, des données spatiales et non-spatiales qui vont alimenter des géosimulations. - Une technique à base d’agents qui sert à collecter des donnees spatiales et non-spatiales en provenance de la géosimulation en utilisant le paradigme d’agents, ainsi qu’un outil d’analyse de ces données. - Un couplage des techniques d’analyse et d’exploration de données OLAP (On Line Analytical Processing)/SOLAP (Spatial On Line Analytical Processing) et de notre prototype de géosimulation du comportement du magasinage des êtres humains dans un centre commercial. Ce couplage sert à analyser et à explorer les données générées par ce prototype. / In this thesis, we propose a generic method to develop 2D and 3D multiagent geosimulation of complex behaviors (human behaviors) in geographic environments. Our work aims at solving some problems in the field of computer simulation in general and the field of multiagent simulation. These problems are are: - The absence of methods to develop 2D-3D multiagent simulation of phenomena in geographic environments. - The absence of gathering and analysis techniques that can be used to collect and analyze spatial and non-spatial data to feed the geosimulation models (input data) and to analyze data generated by geosimulations (output data). - The absence of a ‘realistic’ and ‘useful’ geosimulation prototype of customer’s shopping behavior in a mall. The main idea of our work is to create a generic method to develop 2D and 3D multiagent geosimulations of phenomena in geographic environments. This method contains ten steps, which are summarized as follows: The first three steps of the method aim to (1) define the geosimulation users’ needs, (2) identify the characteristics of the phenomenon to be simulated, as well as its environment, and (3) create the geosimulation models using the multiagent paradigm. The fourth step aims to select the simulation tool/environment/language that is used to develop the geosimulation. In step five, we collect the data which feeds the geosimulation models. In this step, we analyze the collected information in order to define some patterns of the behaviors of the phenomenon to be simulated. In the sixth step, we develop the geosimulation prototype, on the selected simulation platform, using the collected data. In step seven, we collect information about the course of the simulation, once again using the multiagent paradigm. In this step, we deal with the non-spatial and spatial data, generated by the simulation using several analysis techniques: Classical or traditional analysis techniques, our own analysis technique/tool, and the OLAP (On Line Analytical Processing) and SOLAP (Spatial On Line Analytical Processing) technique. In order to ensure the correctness of the simulation models, as well as to enhance the confidence of the simulation users, we need to verify and validate the simulation models. The verification and validation are the purpose of the eighth step of our method. In the ninth step, we test and document the simulation, while in the last step users can use the multiagent geosimulator in order to make efficient spatial decisions about the phenomenon to be simulated or about the configuration of the simulated environment. The main contributions of this thesis are: - A new method to develop 2D-3D multiagent geosimulations of complex behaviors (human behaviors) in geographic environments. - Some models dealing with the shopping behavior in a mall: an initial version of the shopping behavior model based upon a large literature review, an initial version of the multiagent model which is independent of the tool used to execute the simulation, and an agent-based model created according to the selected platform used to develop the geosimulation. All these models are related to the individual shoppers and to the simulated environment representing the mall. - An illustration of the method using the shopping behavior in a mall as a case study and the Square One mall in Toronto as a case test. This gave birth to a ‘realistic’ and ‘useful’ geosimulation prototype called Mall_MAGS. - A new survey-based technique to gather spatial and non-spatial data to feed the geosimulation models. - A tool to digitalize the spatial and non-spatial gathered data. - A new agent-based technique to collect output data from the geosimulation prototype. - A new analysis technique and tool to analyze spatial and non-spatial data generated by the geosimulation. - A coupling of the OLAP (On Line Analytical Processing) and SOLAP (Spatial On Line Analytical Processing) analysis techniques with the shopping behavior geosimulation prototype in order to explore and analyze the geosimulation outputs.
233

Aspects cognitifs des dialogues entre agents artificiels : l'approche par la cohérence cognitive

Pasquier, Philippe 11 April 2018 (has links)
Les cadres interactionnels actuels pour les communications entre agents (protocoles, stratégies de conversation, jeux de dialogue, . . . ) garantissent la cohérence structurelle des conversations tenues. Pourtant, ce n'est pas tant l'habilité des agents à structurer leurs conversations qui nous intéresse que leurs aptitudes à tenir des conversations utiles quant à leurs objectifs individuels et collectifs. Pour traiter cette problématique, nous avons défini et implanté un modèle complet de la communication entre agents qui couvre les quatre dimensions classiques de la communication : syntaxe, structure, sémantique et pragmatique. Au niveau syntaxique, nous proposons le langage DIAGAL[DIAlogue Game based Agent communication Language] qui se présente comme un ensemble de jeux de dialogue qui permettent la manipulation conjointe d'engagements sociaux. Du point de vue de la structuration des dialogues, les jeux de dialogue que nous proposons offrent une alternative à la rigidité des protocoles tout en capturant les aspects conventionnels de la communication, absents des approches considérant des actes de langages isolés. Dans notre approche, le niveau sémantique de la communication repose, quant à lui, sur les engagements sociaux qui capturent les interdépendances contractées par les agents lors des communications. Dans ce contexte, notre contribution principale concerne les aspects cognitifs de la pragmatique. À cet effet, nous proposons une théorie cognitive de l'utilisation de ce cadre interactionnel basée sur la notion de cohérence cognitive et fondée sur des résultats non encore formalis és de sciences cognitives. Issue d'une unification de la théorie de la dissonance cognitive (une des théories majeures de psychologie cognitive) avec la théorie de cohérence cognitive (développée en philosophie de l'esprit), notre approche est formulée en termes d'éléments et de contraintes, notions familières en informatique. La théorie motivationnelle résultante est ensuite étendue afin de traiter la communication entre agents cognitifs. Sous les hypothèses de notre théorie, nous définissons alors une métrique de l'utilité des conversations entre agents. Nous montrons comment cette théorie permet de résoudre en pratique de nombreux problèmes fondamentaux des aspects cognitifs de la pragmatique des communications entre agents. En particulier, nous proposons une première application de notre théorie pour l'utilisation automatique par des agents de type BDI [Beliefs, Desires and Intentions] des jeux de dialogue du langage DIAGAL. Ce faisant, nous introduisons un certain nombre d'outils techniques pour l'automatisation des communications entre agents tout en précisant quels sont nos apports théoriques pour les SMAs et plus généralement pour les sciences cognitives. / Different approaches have investigated the syntax and semantics of agent communication languages. However, these approaches have not indicated how agents should dynamically use communications. Instead of filling this pragmatics gap, most approaches have mainly focused on the "structure" of dialogues even though developers are more interested in agents' capabilities of having "useful" automated conversations with respect to their goals rather than in their abilities to structure dialogues. We addressed this problem that requires re-inquiring the four main dimensions of (agent) communication : syntax, structure, semantics and pragmatics (the theory of the use of language). At the syntactic level, we have developed an agent communication language called DIAGAL [DIAlogue Game based Agent communication Language] which consists of a set of dialogue games that allows for the grounded manipulation of social commitments. At the structural level, DIAGAL dialogue games offer a good compromise between the lack of flexibility of protocols while taking into account the conventional aspects of dialogue which were missing in isolated speech acts approaches. At the semantics level, we provide a social commitments model that captures the inter-dependencies contracted by the agents toward each other during dialogues. In that context, our main contribution concerns the cognitive aspects of pragmatics. To this end, we develop in this thesis a motivational theory for the use of such a conventional and social agent communication framework. Our approach is based on cognitive science results that have not been formalized yet. Our theory consists of a formalisation and a unification of the cognitive dissonance theory (one of the major theories of cognitive psychology) with the coherence theory issuing from philosophy of mind. Our approach is formulated in terms of elements and constraints which allow making it computational. This theory allows formally defining and exploiting the notion of utility of dialogues. We show in this thesis how this approach allows solving many theoretical and practical problems in agent communication. As a validation of this approach, we extend classical BDI [Beliefs, Desires and Intentions] agents to allow them to automatically use DIAGAL dialogue games. The resulting framework provides the necessary theoretical and practical elements for implementing our theory. In doing so, it brings in a general scheme for automatizing agents' communicational behaviour.
234

Algorithmes de gestion de ressources en temps-réel : positionnement et planification lors d'attaques aériennes

Morissette, Jean-François 11 April 2018 (has links)
Depuis plusieurs années, Recherche et Développement pour la Défense Canada (RDDC) et Lockheed Martin Canada (LMC) travaillent en collaboration afin de moderniser le système de Commande et Contrôle (C2) présent sur une frégate. Un tel système a pour but d'analyser et de gérer un flot d'informations considérable afin d'effectuer les bonnes actions face à une situation donnée. Notre rôle au sein de ce projet se situe au niveau de la prise de décision. Nous devons étudier les possibilités que peut offrir la technologie agent à un tel système. Dans ce mémoire, nous proposons un mod`ele formel d'interaction entre les différentes ressources disponibles sur la frégate et les menaces auxquelles elle doit faire face. Nous proposons aussi une technique de positionnement et une approche de planification afin de maximiser les chances de survie de la frégate. Enfin, nous présentons les résultats que nous avons obtenus au moyen de simulations.
235

Le refus de reconnaître le statut d'auteur à l'intelligence artificielle et ses conséquences

Rouxel, Marie 11 December 2024 (has links)
« L’intelligence artificielle pourrait être le plus important événement de l’histoire de notre civilisation ». Cette phrase de Stephen Hawkins démontre l’importance que pourrait prendre l’intelligence artificielle dans notre société. L’évolution des algorithmes permet maintenant à l’intelligence artificielle de générer des créations artistiques de manière quasiment autonome puisque l’utilisateur de l’intelligence artificielle n’a qu’à lancer le processus. Cette nouvelle manière de créer engendre de nombreuses questions, notamment celle de savoir qui est l’auteur, au sens juridique, de ces créations et si elles peuvent bénéficier de la protection du droit d’auteur. Il apparaît que les critères permettant d’accorder la protection du droit d’auteur ne permettent pas, en l’état actuel des choses, d’intégrer les créations générées par ordinateur au droit d’auteur. En effet, ces critères ne permettent pas d’attribuer le statut d’auteur à l’intelligence artificielle, puisque cette dernière n’est pas une personne physique. En l’absence de protection par le droit d’auteur, on peut alors se demander ce qu’il advient des créations générées par l’intelligence artificielle. Une des conséquences pourrait être que les créations tombent d’emblée dans le domaine public. En effet, cela permettrait de servir l’intérêt général tout en gardant un droit d’auteur très protecteur pour la personne de l’auteur. / « Artificial intelligence could be the most important event in the history of our civilization.” This sentence from Stephen Hawking demonstrates the importance that artificial intelligence can have in our society. The evolution of algorithms now allows artificial intelligence to create artistic creations in a virtually autonomous way since the user of artificial intelligence has only to start the process. This new way of creating raises many questions, including who the author of these creations is, and whether they can benefit from copyright protection. It appears that the criteria for granting copyright protection do not, in the current state of affairs, make it possible to integrate computer-generated creations with copyright. Indeed, these criteria do not allow to attribute the status of author to the artificial intelligence because AI is not a physical person. In the absence of protection by Copyright, one can wonder what happens to computer-generated creations. One of the consequences could be that the creations fall immediately into the public domain. Indeed, it would serve the public interest while keeping a very protective copyright of the person of the author.
236

Pilotage en temps réel d'une ligne de finition de bois d'oeuvre intégrant du séchage à haute fréquence à l'aide de l'apprentissage par renforcement

Tremblay, François-Alexandre 12 November 2023 (has links)
Titre de l'écran-titre (visionné le 26 juin 2023) / L'industrie des produits du bois évolue dans un contexte de forte compétition qui incite les scieries à se tourner vers des procédés plus agiles, tel que le séchage du bois en continu par micro-ondes, une technologie récemment brevetée. Cette technologie permet de corriger le séchage des planches une à la fois, par opposition au séchage classique par lot. L'intégration de ce séchage de précision à une ligne de finition traditionnelle complexifie toutefois la logistique de l'entreprise. En effet, bien que la technologie permette d'améliorer la qualité du bois, la surcharge de planches trop humides occasionne des goulots d'étranglement et une réduction de la productivité. Il est donc nécessaire de développer des systèmes décisionnels qui déterminent en temps réel si une planche humide doit passer au séchoir micro-onde afin d'améliorer sa qualité ou continuer son chemin vers la fin de la ligne de finition. Ce projet consiste à concevoir et à évaluer des algorithmes de prises de décisions en temps réel sur une ligne de finition afin de maximiser la valeur générée par unité de temps. Compte tenu de l'aspect séquentiel des décisions (chaque décision affecte les taux actuels et futurs d'occupation des différents équipements, la qualité du bois et la productivité de l'usine), l'apprentissage par renforcement est utilisé. Dans ce sous-domaine de l'intelligence artificielle, les algorithmes apprennent des politiques décisionnelles optimales, pour une fonction objectif donnée, par interaction avec leur environnement à travers un processus « d'essais-erreurs ». Nous montrons le potentiel de l'apprentissage par renforcement à travers un modèle de simulation imitant le contexte fortement dynamique des scieries. Les politiques d'apprentissage par renforcement apprises ont permis d'augmenter la productivité d'au moins 19% par rapport à une heuristique semblable à celles utilisées actuellement en industrie. Ces politiques sont aussi relativement robustes aux perturbations soudaines qui peuvent survenir dans l'environnement. / The wood products industry is evolving in a context of strong competition encouraging sawmills towards more agile processes such as continuous wood drying using microwaves, a recently patented technology. This technology makes it possible to correct wood drying one plank at a time as opposed to traditional batch drying. However, the integration of this precision drying process into traditional finishing operations complicates sawmill's logistics. Although the technology improves wood quality, the overload of wet lumber causes bottlenecks and a reduction of productivity. It is therefore necessary to develop new decision-making systems to determine in real time whether wet lumber should be microwaved to improve its quality or continue on its way towards the end of the finishing line. This project consists of designing and evaluating real-time decision-making algorithms on a finishing line in order to maximize the value generated per unit of time, a constant challenge in the Canadian wood products industry. Considering the sequential aspect of decisions (each decision affects current and future occupancy rates of different equipment, wood quality and plant productivity), reinforcement learning (RL) is used. In this subfield of artificial intelligence, algorithms learn optimal decision sequences by interacting with their environment through a "trial and error" process. We show the potential of RL through a simulation model mimicking the real and highly dynamic factory context. RL policies learned increase productivity on wet lumber by at least 19% compared to the heuristic currently used in industry. These policies are also relatively robust to sudden disturbances that may occur in the system.
237

Esthétique potentielle : créer à l'ère de l'intelligence artificielle, un dialogue entre machines et architectes

Paradis, Maurane 25 March 2024 (has links)
Titre de l'écran-titre (visionné le 7 août 2023) / Le milieu de l'architecture actuel est influencé par les avancées technologiques qui l'entoure, notamment dans les dernières années où l'intelligence artificielle a occupé et occupe toujours un rôle de premier plan vis-à-vis de ces développements. En architecture, l'intelligence artificielle ouvre de nouvelles possibilités tant dans les tâches d'optimisation, autant typologique que matérielle, que dans les tâches de conception architecturale créative ou esthétique. Ces capacités inédites de la machine questionnent le rôle et les interactions que l'humain entretient dans une méthodologie de conception créative assistée par un agent artificiellement intelligent. La machine a désormais le potentiel d'élever son statut de simple outil répondant au désir de l'architecte à celui d'un agent collaborateur possédant ses propres mécanismes décisionnels. Ce projet de recherche vise à explorer ce nouveau type de production collaborative entre l'architecte et la machine dans le processus créatif inhérent à l'art. Ce système de co-création observe également le développement d'une intuition artistique qui s'appuie sur l'intelligence de la machine et sur des traditions esthétiques. Pour ce faire, le projet débute en abordant par un survol historico-descriptif la question du milieu architectural et de son évolution afin de bien comprendre les implications et les évolutions que l'arrivée d'une nouvelle technologie peut avoir sur l'humain et le milieu qu'ils partagent. Ensuite, une première série d'expérimentations se concentre sur la génération d'images. Ces explorations s'intéressent aux potentiels de l'intelligence artificielle en tant que nouveau médium influençant la production et l'esthétique de la représentation. En second lieu, une exploration plastique de la mise en forme d'un projet d'architecture vise à mettre en application les logiques du processus génératif iconographique établies précédemment. En dernier lieu, un retour théorique à la lumière des observations réalisées lors des expérimentations relève les caractéristiques du nouveau milieu que l'intelligence artificielle apporte. Ce retour permet de proposer une définition des nouvelles mentalités techniques et des mutations esthétiques qui émergent avec le milieu. Cette recherche-création exploratoire éveille à l'attention plusieurs questions, mais permet surtout de porter un regard nouveau sur les relations de travail émergentes entre l'architecte et la machine qui méritent d'être l'objet de futures études comme l'autrice le soulève en conclusion du mémoire. / In recent years, artificial intelligence in particular has taken a central role in this ever-evolving technological landscape. In architecture, artificial intelligence opens new possibilities for optimizing elements such as build types or materials, but also in creative or aesthetic architectural design tasks. These unprecedented machine capabilities question the role and interactions of humans in a creative design methodology assisted by an artificially intelligent agent. The machine now has the potential to elevate its status from a simple tool responding to the architect's desire to that of a collaborative agent with its own decision-making mechanisms. This research project aims to explore this new type of collaborative production between architect and machine in respect to the creative process inherent to art. This co-creation system is also interested in the development of an artistic intuition that relies on the intelligence of the machine and aesthetic traditions. To this end, the project begins by addressing the issue of the architectural environment in order to fully understand the implications new technologies can have on humans and the environment in which they thrive - with the help of a historical-descriptive overview. A first series of experimentations then focuses on the generation of images. These explorations focus on the potential of artificial intelligence as a new medium influencing the production and aesthetics of representation. Secondly, a plastic exploration for shaping architectural projects aims to apply this logic of the iconographic generation process established previously. Lastly, a theoretical return in light of the observations made during the experimentations brings a series of questions regarding the new environment that artificial intelligence puts in place. This return allows for the suggestion of a definition for the new technical mentalities and aesthetic mutations which emerge from the medium. This exploratory creative research raises several questions, but foremost allows to shed a new light on the innovative working relations between architect and machine, which deserves to be the object of future studies. The latest will be discussed in the conclusion of the thesis.
238

Recommandation de paramètres de soudures basées sur l'apprentissage automatique dans un contexte d'industrie 4.0

Picherit, Tom 25 March 2024 (has links)
Titre de l'écran-titre (visionné le 1er novembre 2023) / Les performances du procédé de soudage à l'arc sous gaz métallique dépendent de nombreux paramètres et choisir les bons peut être complexe, même pour un expert. Généralement un ensemble de paramètres valide se trouve par essais et erreurs. Cette méthode nécessite donc beaucoup de temps et de matériel. Nous proposons ici d'utiliser des techniques d'apprentissage supervisé, pour aider les experts dans leur prise de décision. C'est dans cet objectif que nous avons d'abord créé un jeu de données à partir d'un historique de fiches de procédures de soudure numérisées. Ensuite, nous proposons un système de recommandation en deux parties. La première étape est dédiée à l'identification, par classification, du nombre de passes de soudure. La seconde indique les sept valeurs de paramètres restantes pour chaque passe : couche, ampérage, tension, vitesse de fil, fréquence, coupure et vitesse de soudage. Le système de recommandation est capable de fournir de bons résultats pour tous les différents paramètres mentionnés ci-dessus, même si les données sont bruitées en raison de la nature heuristique du processus des experts. Parmi les 11 algorithmes testés pour chaque partie, le meilleur modèle de classification est CatBoost avec 81,94% en score F1 pondéré. Les meilleurs modèles de régression sont, quant à eux, Extra Trees ou un algorithme de boosting, avec un pourcentage d'erreur absolu moyen dans les normes attendues. Ce système de recommandation est donc, pour les experts soudeurs, un outil de soutien leur permettant de gagner du temps et des ressources lors de l'étape de recherche des paramètres. Nous nous sommes appuyés sur différentes études, à la fois pour mettre en forme ce système de recommandation, mais aussi pour en analyser les limites. Premièrement, nous exposons les résultats obtenus sur la recommandation du nombre de passes en considérant ce sous-problème comme un problème de régression. Deuxièmement, en considérant des sous-ensembles de données, la conclusion suivante s'impose : regrouper les soudures par nombre total de passes ou par type de joint, ne permet pas de développer un système plus performant. En effet, le débalancement des observations, pour chaque passe, limite la phase d'apprentissage de nos modèles sur celles les plus élevées. De même, l'augmentation de la taille du jeu de données ne garantit pas l'amélioration des prédictions du nombre de passes. Cependant, elle suggère des perspectives intéressantes pour l'ampérage, le voltage, la vitesse de fil, la fréquence, la coupure et la vitesse de soudure. Troisièmement, notre modèle est comparé avec deux autres solutions de recommandations alternatives et nous introduisons la notion de chaleur transmise. Nous montrons qu'une suite de régressions en chaîne et que le calcul de la vitesse de soudure, à partir de la prédiction de la chaleur transmise, ne permet pas d'augmenter les performances du système. Pour terminer, une méthodologie est mise au point, afin de tester en contexte industriel notre système de recommandation. Nous échangeons des éléments à prendre en compte pour insérer cette expérience dans l'entreprise, sans entraver le travail des experts, et en récoltant des informations précises pour faire avancer la recherche. Dans ce but et pour compléter, nous proposons un prototype d'interface graphique qui intègre notre système de recommandations. / In gas metal arc welding, a weld quality and performance depends on many parameters. Selecting the right ones can be complex, even for an expert. One generally proceeds through trial and error to find a good set of parameters. Therefore, the current experts' method is not optimized and can require a lot of time and materials. We propose using supervised learning techniques to help experts in their decision-making. To that extent, we first created a dataset from a history of digitized welding procedure sheets. Then, a two-part recommendation system is proposed. The first step is dedicated to identify, through classification, the number of weld passes. The second one suggests the seven remaining parameter values for each pass: layer, amperage, voltage, wire feed rate, frequency offset, trimming and welding speed. After extracting data from historical Welding Procedure Specification forms, we tested 11 different supervised learning algorithms. The recommendation system is able to provide good results for all the different settings mentioned above even if the data is noisy due to the heuristic nature of the experts' process. The best classification model is CatBoost with an 81.94% F1-Weighted-Score and the best regression models are Extra Trees or a boosting algorithm with a reduced mean absolute percentage error compared to our baseline. This recommendation system is therefore, for expert welders, a support tool allowing them to save time and resources during the parameter research stage. We relied on various studies, both to shape this recommendation system, but also to analyze its limits. Firstly, we expose results obtained for the number of passes' recommendation considering this step as a regression problem. Secondly, by working on subsets of data, the following conclusion is obvious: grouping the welds by total number of passes or by type of joint does not make it possible to develop a more efficient system. Indeed, the imbalance of the observations of passes per weld limits the learning phase of our models on the highest ones. Similarly, increasing the dataset size does not guarantee improved pass count predictions but does suggest interesting insights for amperage, voltage, wire speed, frequency, trimming and welding speed. Thirdly, our model is compared with two other alternative solutions and we introduce the notion of heat input. We show that a series of chained regressors and the calculation of the welding speed, from the prediction of the heat input, does not make it possible to increase the performance of the system. Finally, a methodology is developed in order to test our recommendation system in an industrial context. We detail the aspects to be considered to insert this experience into the company without hindering the work of the experts while collecting precise information for further work. For this purpose, we also propose a graphical interface prototype that integrates the recommendation system.
239

Réseaux de neurones à relaxation entraînés par critère d'autoencodeur débruitant

Savard, François 08 1900 (has links)
L’apprentissage machine est un vaste domaine où l’on cherche à apprendre les paramètres de modèles à partir de données concrètes. Ce sera pour effectuer des tâches demandant des aptitudes attribuées à l’intelligence humaine, comme la capacité à traiter des don- nées de haute dimensionnalité présentant beaucoup de variations. Les réseaux de neu- rones artificiels sont un exemple de tels modèles. Dans certains réseaux de neurones dits profonds, des concepts "abstraits" sont appris automatiquement. Les travaux présentés ici prennent leur inspiration de réseaux de neurones profonds, de réseaux récurrents et de neuroscience du système visuel. Nos tâches de test sont la classification et le débruitement d’images quasi binaires. On permettra une rétroac- tion où des représentations de haut niveau (plus "abstraites") influencent des représentations à bas niveau. Cette influence s’effectuera au cours de ce qu’on nomme relaxation, des itérations où les différents niveaux (ou couches) du modèle s’interinfluencent. Nous présentons deux familles d’architectures, l’une, l’architecture complètement connectée, pouvant en principe traiter des données générales et une autre, l’architecture convolutionnelle, plus spécifiquement adaptée aux images. Dans tous les cas, les données utilisées sont des images, principalement des images de chiffres manuscrits. Dans un type d’expérience, nous cherchons à reconstruire des données qui ont été corrompues. On a pu y observer le phénomène d’influence décrit précédemment en comparant le résultat avec et sans la relaxation. On note aussi certains gains numériques et visuels en terme de performance de reconstruction en ajoutant l’influence des couches supérieures. Dans un autre type de tâche, la classification, peu de gains ont été observés. On a tout de même pu constater que dans certains cas la relaxation aiderait à apprendre des représentations utiles pour classifier des images corrompues. L’architecture convolutionnelle développée, plus incertaine au départ, permet malgré tout d’obtenir des reconstructions numériquement et visuellement semblables à celles obtenues avec l’autre architecture, même si sa connectivité est contrainte. / Machine learning is a vast field where we seek to learn parameters for models from concrete data. The goal will be to execute various tasks requiring abilities normally associated more with human intelligence than with a computer program, such as the ability to process high dimensional data containing a lot of variations. Artificial neural networks are a large class of such models. In some neural networks said to be deep, we can observe that high level (or "abstract") concepts are automatically learned. The work we present here takes its inspiration from deep neural networks, from recurrent networks and also from neuroscience of the visual system. Our test tasks are classification and denoising for near binary images. We aim to take advantage of a feedback mechanism through which high-level representations, that is to say relatively abstract concepts, can influence lower-level representations. This influence will happen during what we call relaxation, which is iterations where the different levels (or layers) of the model can influence each other. We will present two families of architectures based on this mechanism. One, the fully connected architecture, can in principle accept generic data. The other, the convolutional one, is specifically made for images. Both were trained on images, though, and mostly images of written characters. In one type of experiment, we want to reconstruct data that has been corrupted. In these tasks, we have observed the feedback influence phenomenon previously described by comparing the results we obtained with and without relaxation. We also note some numerical and visual improvement in terms of reconstruction performance when we add upper layers’ influence. In another type of task, classification, little gain has been noted. Still, in one setting where we tried to classify noisy data with a representation trained without prior class information, relaxation did seem to improve results significantly. The convolutional architecture, a bit more risky at first, was shown to produce numerical and visual results in reconstruction that are near those obtained with the fully connected version, even though the connectivity is much more constrained.
240

Algorithmes d'apprentissage pour la recommandation

Bisson, Valentin 09 1900 (has links)
L'ère numérique dans laquelle nous sommes entrés apporte une quantité importante de nouveaux défis à relever dans une multitude de domaines. Le traitement automatique de l'abondante information à notre disposition est l'un de ces défis, et nous allons ici nous pencher sur des méthodes et techniques adaptées au filtrage et à la recommandation à l'utilisateur d'articles adaptés à ses goûts, dans le contexte particulier et sans précédent notable du jeu vidéo multi-joueurs en ligne. Notre objectif est de prédire l'appréciation des niveaux par les joueurs. Au moyen d'algorithmes d'apprentissage machine modernes tels que les réseaux de neurones profonds avec pré-entrainement non-supervisé, que nous décrivons après une introduction aux concepts nécessaires à leur bonne compréhension, nous proposons deux architectures aux caractéristiques différentes bien que basées sur ce même concept d'apprentissage profond. La première est un réseau de neurones multi-couches pour lequel nous tentons d'expliquer les performances variables que nous rapportons sur les expériences menées pour diverses variations de profondeur, d'heuristique d'entraînement, et des méthodes de pré-entraînement non-supervisé simple, débruitant et contractant. Pour la seconde architecture, nous nous inspirons des modèles à énergie et proposons de même une explication des résultats obtenus, variables eux aussi. Enfin, nous décrivons une première tentative fructueuse d'amélioration de cette seconde architecture au moyen d'un fine-tuning supervisé succédant le pré-entrainement, puis une seconde tentative où ce fine-tuning est fait au moyen d'un critère d'entraînement semi-supervisé multi-tâches. Nos expériences montrent des performances prometteuses, notament avec l'architecture inspirée des modèles à énergie, justifiant du moins l'utilisation d'algorithmes d'apprentissage profonds pour résoudre le problème de la recommandation. / The age of information in which we have entered brings with it a whole new set of challenges to take up in many different fields. Making computers process this profuse information is one such challenge, and this thesis focuses on techniques adapted for automatically filtering and recommending to users items that will fit their tastes, in the somehow original context of an online multi-player game. Our objective is to predict players' ratings of the game's levels. We first introduce machine learning concepts necessary to understand the two architectures we then describe; both of which taking advantage of deep learning and unsupervised pre-training concepts to solve the recommendation problem. The first architecture is a multilayered neural network for which we try to explain different performances we get for different settings of depth, training heuristics and unsupervised pre-training methods, namely, straight, denoising and contrative auto-encoders. The second architecture we explore takes its roots in energy-based models. We give possible explanations for the various results it yields depending on the configurations we experimented with. Finally, we describe two successful improvements on this second architecture. The former is a supervised fine-tuning taking place after the unsupervised pre-training, and the latter is a tentative improvement of the fine-tuning phase by using a multi-tasking training criterion. Our experiments show promising results, especially with the architecture inspired from energy-based models, justifying the use of deep learning algorithms to solve the recommendation problem.

Page generated in 0.1085 seconds