• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 406
  • 294
  • 118
  • 4
  • 3
  • Tagged with
  • 878
  • 878
  • 535
  • 326
  • 315
  • 289
  • 272
  • 263
  • 242
  • 217
  • 207
  • 205
  • 202
  • 200
  • 198
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
211

Inference algorithms for the regression approach to sequence prediction

Rolland, Amélie 24 April 2018 (has links)
La prédiction de séquence comporte plusieurs applications en traitement du langage naturel, en bioinformatique, et en vision numérique. La complexité de calcul requise pour trouver la séquence optimale parmi un nombre exponentiel de possibilités limite cependant l’utilisation de tels algorithmes. Dans ce mémoire, nous proposons une approche permettant de résoudre cette recherche efficacement pour deux types de problèmes différents. Plus précisément, nous adressons le problème de pré-image en prédiction de structure nécessitant de trouver la séquence associée à une entrée arbitraire, et le problème consistant à trouver la séquence qui maximise la fonction de prédiction de plusieurs classificateurs et régresseurs à noyaux. Nous démontrons que ces deux problèmes se réduisent en un même problème combinatoire valide pour plusieurs noyaux à séquences. Pour ce problème, nous proposons une borne supérieure sur la fonction de prédiction pouvant être utilisée dans un algorithme de recherche branch and bound pour l’obtention de solutions optimales. Sur les tâches de reconnaissance de mots et de prédiction de phonèmes, l’approche proposée obtient des résultats compétitifs avec les algorithmes de prédiction de structure de l’état de l’art. De plus, la solution exacte du problème de pré-image augmente de manière significative les performances de prédiction en comparaison avec une approximation trouvée par l’heuristique la plus connue. Pour les tâches consistant à trouver la séquence maximisant la fonction de prédiction de classificateurs et régresseurs, nous montrons que des méthodes existantes peuvent être biaisées à prédire de longues séquences comportant des symboles répétitifs. Nous soulignons que ce biais est enlevé lorsque le noyau est normalisé. Finalement, nous présentons des résultats en conception de médicaments sur la découverte de composés principaux. Le code source peut être téléchargé à https://github.com/a-ro/preimage. / Sequence prediction algorithms have many applications in natural language processing, bioinformatics, and computer vision. However, the computational complexity required to find the optimal sequence among an exponential number of possibilities limits the use of such algorithms. In this thesis, we propose an approach to solve this search efficiently for two types of sequence prediction problems. More precisely, we address the pre-image problem encountered in structured output prediction, which consists of finding the sequence associated with an arbitrary input, and the problem of finding a sequence maximizing the prediction function of various kernel-based classifiers and regressors. We demonstrate that these problems reduce to a common combinatorial problem valid for many sequence kernels. For this problem, we propose an upper bound on the prediction function which has low computational complexity and which can be used in a branch and bound search algorithm to obtain optimal solutions. On the practical tasks of optical word recognition and grapheme-to-phoneme prediction, the proposed approach is shown to be competitive with state-of-the-art structured prediction algorithms. Moreover, the exact solution of the pre-image problem is shown to significantly improve the prediction accuracy in comparison with an approximation found by the best known heuristic. On the task of finding a sequence maximizing the prediction function of kernelbased classifiers and regressors, we highlight that existing methods can be biased toward long sequences that contain many repeated symbols. We demonstrate that this bias is removed when using normalized kernels. Finally, we present results for the discovery of lead compounds in drug discovery. The source code can be found at https://github.com/a-ro/preimage.
212

Application de l'intelligence artificielle à la prédiction de la demande en eau chaude domestique et en électricité pour le contrôle par modèle prédictif dans les bâtiments résidentiels

Maltais, Louis-Gabriel 30 August 2022 (has links)
Le secteur du bâtiment représente plus du tiers de la consommation énergétique et des émissions de gaz à effet de serre mondiales. Face à cet enjeu, des stratégies passives ont permis d'améliorer l'efficacité énergétique des bâtiments. À mesure que les technologies passives se rapprochent de leur limite physique d'efficacité, il devient nécessaire de s'intéresser à des technologies actives. Les stratégies de contrôle par modèle prédictif ont le potentiel de réduire la consommation énergétique des systèmes de chauffage, climatisation, ventilation, conditionnement de l'air et de production d'eau chaude domestique. Une difficulté limitant leur implantation dans les bâtiments provient du besoin de prédire des paramètres influencés par le comportement des occupantes et des occupants qui apparait stochastique, complexifiant le développement de modèles de prédiction. Dans ce contexte, cette thèse se concentre à évaluer des méthodes basées sur les données pour estimer la prédictibilité de la consommation d'eau chaude domestique et d'électricité dans un bâtiment résidentiel. L'impact d'une prédictibilité variable sur les performances est évalué lors de l'implémentation de ces modèles de prédiction dans des contrôleurs par modèle prédictif appliqués à des systèmes de production d'eau chaude domestique. Premièrement, la prédictibilité des profils de consommation d'eau chaude est évaluée à partir de profils mesurés dans un bâtiment résidentiel de 40 logements. Plus précisément, des réseaux de neurones sont entraînés à prédire cette consommation pour des systèmes de tailles variables allant d'un à 100 logements. Le niveau de prédictibilité est identifié comme étant proportionnel au nombre de logements et hautement variable pour des systèmes unifamiliaux, passant de très faible à élevé (c.-à-d., coefficient de détermination allant de 8 à 92% avec une moyenne de 58%). Les résultats montrent une difficulté à prédire précisément les pics de consommation, souvent sous-estimés lorsqu'une faible prédictibilité est observée. Puisqu'un contrôleur par modèle prédictif base ses décisions sur les prédictions, une faible prédictibilité pourrait impacter les performances en termes d'économie d'énergie et de respect des contraintes applicables à un système de production d'eau chaude. Deuxièmement, l'impact du niveau de prédictibilité des profils de consommation d'eau chaude sur les performances de contrôleurs par modèle prédictif est estimé. Les performances d'un contrôleur par modèle prédictif théorique employant des prédictions parfaitement précises sont comparées avec celles obtenues avec un contrôleur employant des prédictions imparfaites produites par les réseaux de neurones entraînés précédemment. Pour un système unifamilial, le principal effet des prédictions imparfaites sur les performances est le non-respect plus fréquent des contraintes de température dû à une incapacité à agir suffisamment en avance en préparation aux futurs pics de consommation d'eau chaude sous-estimés. Néanmoins, en comparaison avec une commande traditionnelle, des économies d'énergie allant de 4 à 8% ont été obtenues avec le contrôleur employant les prédictions imparfaites. En prédisant les périodes de pointe énergétique, les contrôleurs par modèle prédictif ont la capacité de réduire les pointes de consommation énergétique en déplaçant une partie de cette consommation vers les périodes hors-pointes. Dans cette optique, plusieurs modèles de prédiction basés sur les données sont entraînés afin de prédire la consommation d'électricité de logements unifamiliaux liée à l'éclairage et à l'utilisation des prises de courant sur plusieurs horizons allant de 10 minutes à 24 heures. Les arbres de décision renforcés (boosted) par le gradient sont identifiés comme étant la méthode produisant la meilleure qualité de prédiction. Une grande variabilité quant au niveau de prédictibilité est observée entre les logements, ce qui pourrait affecter la capacité des contrôleurs à réduire la consommation énergétique de pointe dans certains cas. Finalement, un dernier chapitre explore le potentiel d'un contrôleur par modèle prédictif employant les modèles de prédiction de la demande en eau chaude et de la consommation d'électricité pour prédire les périodes de pointe. Les résultats démontrent une plus grande différenciation entre les contrôleurs par modèle prédictif avec prédictions parfaites et imparfaites, le premier permettant de réduire d'avantage la consommation énergétique de pointe du chauffe-eau en prédisant plus précisément les périodes de pointe ainsi que la demande en eau chaude domestique correspondante. En comparaison avec la commande traditionnelle, des économies d'énergie pendant les périodes de pointe allant de 10 à 70% (moyenne de 26%) selon l'unité résidentielle étudiée ont été obtenues avec le contrôleur basé sur les prédictions imparfaites. Globalement, cette thèse représente un grand pas vers l'application future des contrôleurs par modèle prédictif basés sur l'apprentissage machine dans les bâtiments résidentiels, et les résultats obtenus démontrent le potentiel de cette stratégie de contrôle face à la réduction de la consommation d'énergie des systèmes de production d'eau chaude domestique unifamiliaux. / The building sector accounts for more than a third of the worldwide energy consumption and greenhouse gas emissions. Facing these challenges, passive strategies have allowed to increase the energy efficiency of buildings. As these passive technologies are reaching their efficiency limits, it is necessary to turn our interest to active technologies. Model predictive control strategies have the potential to reduce the energy consumption of heating, cooling, ventilation and air conditioning as well as domestic hot water production systems. One of the challenges towards their application in buildings is the requirement to predict parameters that are influenced by occupants' behavior that appears to be stochastic. In this context, this thesis focuses on evaluating data-based methods to estimate the predictability of domestic hot water and electricity consumption profiles in a residential building. The impact of a varying predictability on the performance is evaluated by implementing these forecasting models in model predictive controllers applied to domestic hot water production systems. First, the predictability of domestic hot water consumption profiles is evaluated from profiles measured in a 40-unit case-study residential building. More specifically, neural networks are trained to predict this consumption for systems of varying size ranging between one and 100 units. The level of predictability is identified as proportional to the number of units and shows high variability for single-family systems, starting at very low and reaching high levels (i.e., coefficient of determination from 8 to 92% with a mean of 58%). Results show that accurately predicting consumption peaks is a challenge and often results in underestimating their amplitude when a low predictability is observed. As the decisions of model predictive controllers are based on predictions, a low predictability could impact their energy-saving performance and ability to respect the constraints of domestic hot water production systems. Thus, the impact of the level of predictability of hot water consumption profiles on the performance of model predictive controllers is estimated. The performance of a theoretical model predictive controller relying on perfectly accurate predictions are compared with that of a controller using imperfect predictions produced by the previously trained neural networks. In single-family systems, the main impact of imperfect predictions on the performance is more violations of the storage temperature constraint due to the inability to act sufficiently in advance in preparation of underestimated future hot water consumption peaks. Nonetheless, comparing with a traditional controller, energy savings from 4 to 8% were obtained with the predictive controller relying on imperfect forecasts. By predicting energy-peak periods, the predictive controllers have the ability to reduce peak energy consumption by moving parts of the energy consumption to off-peak periods. In this context, many data-based prediction models are trained to predict the plug load and lighting electricity consumption of single-family residential units over horizons of 10 minutes to 24 hours. Gradient-boosted regression trees are identified as the method providing the highest prediction quality. A high variability is observed for the level of predictability between residential units, which could affect the controllers' ability to reduce electricity consumption peaks in some cases. Finally, a last chapter explores the potential of a model predictive controller using the prediction models of the domestic hot water demand and of the electricity consumption to forecast electricity-peak periods. As the electricity consumption was demonstrated as challenging to predict in many contexts, the impact of forecasting inaccuracies on the performance of controllers is even more displayed here. The results show that the model predictive controllers with perfect or imperfect predictions are more differentiated, with the first managing to reduce more the electricity-consumption peaks of the water heater by accurately predicting peak periods along with the corresponding domestic hot water demand. Compared with a traditional controller, peak-period energy savings ranging from 10 to 70% (mean of 26%) were obtained with the controller relying on imperfect forecasts depending on the studied residential unit. Globally, this thesis is a major step towards future application of model predictive controllers based on machine learning in residential buildings. The results demonstrate the potential of this control strategy to reduce the energy consumption of single-family domestic hot water systems.
213

Agent-based simulations for advanced supply chain planning : a methodological framework for requirements analysis and deployment

Santa-Eulalia, Luis-Antonio 16 April 2018 (has links)
Le paradigme multi-agents est largement utilisé pour concevoir des outils de simulation dédiés à la chaîne de création de valeur. En dépit de son attrait et de son ample utilisation dans la recherche, la technologie agent et son intégration avec des outils de planification de la chaîne de création de valeur distribuée représente encore un champ à explorer. En particulier, il existe une lacune de recherche dans la phase d'analyse des cadres méthodologiques basés sur le concept des multi-agents. Cette phase représente le premier effort de modélisation et influence considérablement le processus de création entier, ainsi que les simulations résultantes. Afin de contribuer à combler cette lacune, cette thèse présente un cadre méthodologique appelé FAMASS -Architecture FORAC pour modéliser des simulations multi-agents pour la planification des chaînes de création de valeur. L'approche FAMASS a l'intention de fournir une représentation uniforme d'un système distribué de planification avancée (d-APS) qui utilise la technologie multi-agents, un support à des analystes de simulation pour définir clairement les besoin fonctionnels des utilisateurs de scénarios de simulation, ainsi que leurs définitions expérimentales, et un guide aux analystes pour déployer les modèles d'analyse en modèles de spécification et de design. Par conséquent, la capitalisation de la connaissance et du savoir-faire des acteurs de la simulation est améliorée. Les scénarios de simulation sont donc modélisés plus vite, de façon plus précise, et ils sont éventuellement développés et utilisés. Le cadre méthodologique proposé est validé à travers une méthode de preuve-de-concept fondée sur un cas industriel solide et réaliste.
214

La géosimulation orientée agent : un support pour la planification dans le monde réel

Sahli, Nabil 11 April 2018 (has links)
La planification devient complexe quand il s’agit de gérer des situations incertaines. Prédire de façon précise est une tâche fastidieuse pour les planificateurs humains. L’approche Simulation-Based Planning consiste à associer la planification à la simulation. Chaque plan généré est simulé afin d’être testé et évalué. Le plan le plus approprié est alors retenu. Cependant, le problème est encore plus complexe lorsque viennent s’ajouter des contraintes spatiales. Par exemple, lors d’un feu de forêt, des bulldozers doivent construire une ligne d’arrêt pour arrêter la propagation des feux. Ils doivent alors tenir compte non seulement de l’avancée des feux mais aussi des caractéristiques du terrain afin de pouvoir avancer plus facilement. Nous proposons une approche de géosimulation basée sur les agents et qui a pour but d’assister la planification dans un espace réel, à large échelle géographique et surtout à forte composante spatiale. Un feu de forêt est un problème typique nécessitant une planification dans un monde réel incertain et soumis à de fortes contraintes spatiales. Nous illustrons donc notre approche (nommée ENCASMA) sur le problème des feux de forêts. L’approche consiste à établir un parallélisme entre l’Environnement Réel ER (p.ex. une forêt incendiée) et un Environnement de Simulation ES (p.ex. une reproduction virtuelle de la forêt incendiée). Pour garantir un niveau acceptable de réalisme, les données spatiales utilisées dans l’ES doivent absolument provenir d’un SIG (Système d’information Géographique). Les planificateurs réels comme les pompiers ou les bulldozers sont simulés par des agents logiciels qui raisonnent sur l’espace modélisé par l’ES. Pour une meilleure sensibilité spatiale (pour tenir compte de toutes les contraintes du terrain), les agents logiciels sont dotés de capacités avancées telles que la perception. En utilisant une approche par géosimulation multiagent, nous pouvons générer une simulation réaliste du plan à exécuter. Les décideurs humains peuvent visualiser les conséquences probables de l’exécution de ce plan. Ils peuvent ainsi évaluer le plan et éventuellement l’ajuster avant son exécution effective (sur le terrain). Quand le plan est en cours d’exécution, et afin de garantir la cohérence des données entre l’ER et l’ES, nous gardons trace sur l’ES des positions (sur l’ER) des planificateurs réels (en utilisant les technologies du positionnement géoréférencé). Nous relançons la planification du reste du plan à partir de la position courante de planificateur réel, et ce de façon périodique. Ceci est fait dans le but d’anticiper tout problème qui pourrait survenir à cause de l’aspect dynamique de l’ER. Nous améliorons ainsi le processus classique de l’approche DCP (Distributed Continual Planning). Enfin, les agents de l’ES doivent replanifier aussitôt qu’un événement imprévu est rapporté. Étant donné que les plans générés dans le cas étudié (feux de forêts) sont essentiellement des chemins, nous proposons également une approche basée sur la géosimulation orientée agent pour résoudre des problèmes particuliers de Pathfinding (recherche de chemin). De plus, notre approche souligne les avantages qu’apporte la géosimulation orientée agent à la collaboration entre agents humains et agents logiciels. Plus précisément, elle démontre : • Comment la cognition spatiale des agents logiciels sensibles à l’espace peut être complémentaire avec la cognition spatiale des planificateurs humains. • Comment la géosimulation orientée agent peut complémenter les capacités humaines de planification lors de la résolution de problèmes complexes. Finalement, pour appliquer notre approche au cas des feux de forêts, nous avons utilisé MAGS comme plate-forme de géosimulation et Prometheus comme simulateur du feu. Les principales contributions de cette thèse sont : 1. Une architecture (ENCASMA) originale pour la conception et l’implémentation d’applications (typiquement des applications de lutte contre les désastres naturels) dans un espace géographique réel à grande échelle et dynamique. 2. Une approche basée sur les agents logiciels pour des problèmes de Pathfinding (recherche de chemin) particuliers (dans un environnement réel et à forte composante spatiale, soumis à des contraintes qualitatives). 3. Une amélioration de l’approche de planification DCP (plus particulièrement le processus de continuité) afin de remédier à certaines limites de la DCP classique. 4. Une solution pratique pour un problème réel et complexe : la lutte contre les feux de forêts. Cette nouvelle solution permet aux experts du domaine de mieux planifier d’avance les actions de lutte et aussi de surveiller l’exécution du plan en temps réel. / Planning becomes complex when addressing uncertain situations. Accurate predictions remain a hard task for human planners. The Simulation-Based Planning approach consists in associating planning and simulation. Each generated plan is simulated in order to be tested and evaluated. The most appropriate plan is kept. The problem is even more complex when considering spatial constraints. For example, when fighting a wildfire, dozers build a firebreak to stop fire propagation. They have to take into account not only the fire spread but also the terrain characteristics in order to move easily. We propose an agent-based geosimulation approach to assist such planners with planning under strong spatial constraints in a real large-scale space. Forest fire fighting is a typical problem involving planning within an uncertain real world under strong spatial constraints. We use this case to illustrate our approach (ENCASM). The approach consists in drawing a parallel between the Real Environment RE (i.e. a forest in fire) and the Simulated Environment SE (i.e. a virtual reproduction of the forest). Spatial data within the SE should absolutely come from a GIS (Geographic Information System) for more realism. Real planners such as firefighters or dozers are simulated using software agents which reason about the space of the SE. To achieve a sufficient spatial awareness (taking into account all terrain’s features), agents have advanced capabilities such as perception. Using a multiagent geosimulation approach, we can generate a realistic simulation of the plan so that human decision makers can visualize the probable consequences of its execution. They can thus evaluate the plan and adjust it before it can effectively be executed. When the plan is in progress and in order to maintain coherence between RE and SE, we keep track in the SE of the real planners’ positions in the RE (using georeferencing technologies). We periodically replan the rest of the plan starting from the current position of the real planner. This is done in order to anticipate any problem which could occur due to the dynamism of the RE. We thus enhance the process of the classical Distributed Continual Planning DCP. Finally, the agents must replan as soon as an unexpected event is reported by planners within the RE. Since plans in the studied case (forest fires) are mainly paths, we propose a new approach based on agent geosimulation to solve particular Pathfinding problems. Besides, our approach highlights the benefits of the agent-based geo-simulation to the collaboration of both humans and agents. It thus shows: • How spatial cognitions of both spatially aware agents and human planners can be complementary. • How agent-based geo-simulation can complement human planning skills when addressing complex problems. Finally, when applying our approach on firefighting, we use MAGS as a simulation platform and Prometheus as a fire simulator. The main contributions of this thesis are: 1. An original architecture (ENCASMA) for the design and the implementation of applications (typically, natural disasters applications) in real, dynamic and large-scale geographic spaces. 2. An agent-based approach for particular Pathfinding problems (within real and spatially constrained environments and under qualitative constraints). 3. An enhancement of the DCP (particularly, the continual process) approach in order to overcome some limits of the classical DCP. 4. A practical solution for a real and complex problem: wildfires fighting. This new solution aims to assist experts when planning firefighting actions and monitoring the execution of these plans.
215

Contraintes et observabilité dans les systèmes de Markov décentralisés

Besse, Camille 16 April 2018 (has links)
De manière générale, les problèmes séquentiels de décisions multiagents sont très difficiles à résoudre surtout lorsque les agents n'observent pas parfaitement ni complètement l'état de leur environnement. Les modèles actuels pour représenter ces problèmes restent à ce jour très généraux et difficilement applicables dans les multiples applications possibles. Nous proposons dans cette thèse plusieurs approches de réduction de la complexité computationnelle et en pire cas de ces modèles. Une première approche se base sur l'utilisation de contraintes sur l'espace des actions possibles que les différents agents du système peuvent entreprendre. Cette utilisation de connaissances a priori dans la modélisation au travers de modèles déjà connus, mais non appliqués à la prise de décision séquentielle permet une réduction significative d'un des facteurs de la complexité algorithmique. La seconde approche consiste à restreindre les possibilités d'observations de l'agent à un ensemble similaire à l'espace d'états utilisé pour représenter son environnement. De cette manière, nous montrons que les agents peuvent converger rapidement en probabilité vers des croyances communes sans nécessairement avoir à communiquer. Dans ce contexte, nous avons également développé un algorithme permettant alors aux agents de se coordonner au moment de l'exécution lorsqu'il n'existe pas de communication explicite. Enfin, nous avons entrepris la mise en application de telles réductions à deux problèmes. Un premier problème de patrouille multiagent est considéré et modélisé, et un second problème lié à l'apprentissage de POMDPS continus dans des cas précis de transition et d'observabilité est également abordé. Les résultats obtenus montrent que dans certains cas de problèmes de coordination, la communication ? lorsqu'elle est disponible ? est non négligeable, et que dans le cas de l'apprentissage de POMDPs, considérer le quasi-déterminisme du modèle permet l'apprentissage de converger.
216

Environnements personnels d'apprentissage : modélisation multi-agents d'un support de construction

N'dongo, Harouna 21 November 2018 (has links)
À l’heure du Web 2.0, de nouvelles pratiques d’apprentissage se sont développées au sein de la communauté universitaire. Les étudiants adoptent des pratiques d’intégration de leurs activités sociales au sein de leur processus d’apprentissage. Ces derniers s’attendent à avoir accès à une vaste quantité d’information à travers des outils formels ou informels et à faire partie d'une communauté mondiale de pairs. Le besoin de combiner les ressources institutionnelles et personnelles formalise le concept d’environnement personnel d’apprentissage (EPA). Toutefois, l’élaboration de tels environnements nécessite de développer des compétences complexes que les étudiants du supérieur, pourtant décrits comme natifs du numérique, ne possèdent pas nécessairement. Quelques supports de construction d’EPA ont été proposés dans la littérature, mais ces travaux mettent de côté un point important qui est l’interopérabilité des ressource s. L’objectif du présent mémoire est de fournir aux étudiants un support de construction de leur EPA sous forme d’un tableau de bord, qui permettra d’avoir une vision actualisée des ressources et d’exploiter davantage les liens qui en découlent. Offrir aux étudiants un support de construction de leur EPA est une façon de leur faciliter la réappropriation individuelle des ressources d’apprentissage provenant de sources variées et une gestion optimale en termes de contenu et de processus. La solution proposée est basée sur le concept des systèmes multi-agents et repose sur le modèle organisationnel Agent - Groupe - Rôle. Un prototype a également été implémenté et a permis de démontrer la faisabilité de la solution proposée. / With Web 2.0, the university community have developed new learning practices. Students adopt practices for integrating their social activities into their learning process. The needs of learners are rapidly changed and institutions do not still offer resources totally adapted to this context. Students expect to have access to a vast amount of information through formal or informal tools and to be part of a global peer community. The need to combine institutional and personal resources implies a new concept: Personal Learning Environment (PLE). A PLE is defined as a space for learners to customize the aggregation of heterogeneous resources for their learning needs. Developing such environments requires the involvement of complex skills that higher education students, though described as digital natives, do not necessarily possess. The objective of this research work is to allow students to have support for the construction of their PLE as a dashboard. It would provide an up - to - date view of resources use and further exploit the resulting linkages. The proposed solution is based on the Agent - Group - Role organizational model, one of design method for multi-agent systems. A prototype was also implemented and allowed to demonstrate the feasibility of the proposed solution.
217

La science cognitive et le modèle computationnel de l'esprit : le rôle de l'intelligence artificielle dans l'étude de la cognition

Arsenault, Stéphane 22 December 2021 (has links)
Suite à l'échec du behaviorisme, une nouvelle forme d'explication des états mentaux qui pouvait tenir compte du caractère subjectif de l'expérience phénoménale devenait nécessaire. Les progrès en mathématique et en logique symbolique ont permis, en grande partie grâce aux travaux du britannique Alan Turing vers la fin des années 30, de développer un modèle du cerveau auquel participe ce que l'on nomme l' « intelligence artificielle ». Une pléiade de sciences se sont alors regroupées autour de cette nouvelle discipline pour former la « science cognitive ». De cette union est née la théorie computationnelle de l'esprit ou« cognitivisme ». D'après cette théorie, le cerveau serait un ordinateur digital qui traite de l'information, et l'esprit ne serait qu'un programme informatique. Dans cette perspective, la relation corps-esprit correspond à l'approche « fonctionnaliste » et fait abstraction de la nature du cerveau et de sa neurophysiologie. Tout comme des ordinateurs aux architectures différentes arrivent à produire les mêmes résultats, on suppose que deux systèmes ayant des états fonctionnels isomorphes se trouvent nécessairement dans des états cognitifs identiques. Ainsi, le cerveau et l'ordinateur seraient deux systèmes physiques de calculs sur des représentations symboliques. Cependant, l'ordinateur digital et l'intelligence artificielle ne fournissent qu'un modèle qu'il ne faut pas confondre avec la réalité de notre spécificité. Ni la conscience ni l'intentionnalité ne peuvent être expliquées par une simple métaphore et, en ce sens, le cerveau n'a rien d'un ordinateur digital.
218

La protection par le droit d'auteur des créations générées par intelligence artificielle

Gestin-Vilion, Claudia 24 April 2018 (has links)
À l'heure où les formes de création connaissent une diversification croissante, la question de leur protection par le droit d'auteur pose de plus en plus de questions. Tout particulièrement, l'émergence des robots intelligents, et leurs débuts dans le milieu de la création artistique tendent à brouiller considérablement la frontière entre les créations humaines assistées par un ordinateur, et les créations véritablement générées par la machine. Dans ce contexte, il devient nécessaire de se poser la question de savoir si les créations générées par une intelligence artificielle peuvent, ou non, recevoir la protection que le droit d'auteur accorde par principe aux œuvres de l'esprit. La spécificité de ces nouveaux modes de création pose tout particulièrement la question de savoir quelles prérogatives pourraient être attachées aux produits créatifs générés par une intelligence artificielle, et qui pourraient en être les titulaires.
219

Adaptive Dynamics Learning and Q-initialization in the context of multiagent learning

Burkov, Andriy 12 April 2018 (has links)
L’apprentissage multiagent est une direction prometteuse de la recherche récente et à venir dans le contexte des systèmes intelligents. Si le cas mono-agent a été beaucoup étudié pendant les deux dernières décennies, le cas multiagent a été peu étudié vu sa complexité. Lorsque plusieurs agents autonomes apprennent et agissent simultanément, l’environnement devient strictement imprévisible et toutes les suppositions qui sont faites dans le cas mono-agent, telles que la stationnarité et la propriété markovienne, s’avèrent souvent inapplicables dans le contexte multiagent. Dans ce travail de maîtrise nous étudions ce qui a été fait dans ce domaine de recherches jusqu’ici, et proposons une approche originale à l’apprentissage multiagent en présence d’agents adaptatifs. Nous expliquons pourquoi une telle approche donne les résultats prometteurs lorsqu’on la compare aux différentes autres approches existantes. Il convient de noter que l’un des problèmes les plus ardus des algorithmes modernes d’apprentissage multiagent réside dans leur complexité computationnelle qui est fort élevée. Ceci est dû au fait que la taille de l’espace d’états du problème multiagent est exponentiel en le nombre d’agents qui agissent dans cet environnement. Dans ce travail, nous proposons une nouvelle approche de la réduction de la complexité de l’apprentissage par renforcement multiagent. Une telle approche permet de réduire de manière significative la partie de l’espace d’états visitée par les agents pour apprendre une solution efficace. Nous évaluons ensuite nos algorithmes sur un ensemble d’essais empiriques et présentons des résultats théoriques préliminaires qui ne sont qu’une première étape pour former une base de la validité de nos approches de l’apprentissage multiagent. / Multiagent learning is a promising direction of the modern and future research in the context of intelligent systems. While the single-agent case has been well studied in the last two decades, the multiagent case has not been broadly studied due to its complex- ity. When several autonomous agents learn and act simultaneously, the environment becomes strictly unpredictable and all assumptions that are made in single-agent case, such as stationarity and the Markovian property, often do not hold in the multiagent context. In this Master’s work we study what has been done in this research field, and propose an original approach to multiagent learning in presence of adaptive agents. We explain why such an approach gives promising results by comparing it with other different existing approaches. It is important to note that one of the most challenging problems of all multiagent learning algorithms is their high computational complexity. This is due to the fact that the state space size of multiagent problem is exponential in the number of agents acting in the environment. In this work we propose a novel approach to the complexity reduction of the multiagent reinforcement learning. Such an approach permits to significantly reduce the part of the state space needed to be visited by the agents to learn an efficient solution. Then we evaluate our algorithms on a set of empirical tests and give a preliminary theoretical result, which is first step in forming the basis of validity of our approaches to multiagent learning.
220

Contrôle de véhicules aériens autonomes avec respect de contraintes terminales

Bélanger, Jacky 16 April 2018 (has links)
Le projet consiste à développer un algorithme de guidage permettant à un véhicule aérien autonome (UAV) stabilisé de respecter des contraintes reliées à la mission, appelées contraintes terminales. Les contraintes visées sont l'orientation de la trajectoire et la vitesse du véhicule lors de l'atteinte de la cible, ainsi que le temps d'arrivée à cette cible. Deux approches ont été testées. La première consiste à utiliser des véhicules virtuels pour simuler le comportement d'un véhicule réel en fonction des commandes appliquées. Cet algorithme est cependant limité au respect du temps d'arrivée. La deuxième stratégie consiste à contrôler le véhicule afin d'atteindre une cible virtuelle en mouvement rectiligne qui possède la vitesse et l'orientation souhaitées, et qui croise la cible réelle au temps d'arrivée demandé. La seconde approche a été testé avec succès à l'aide d'un système "Hardware-In-the-Loop" (HIL).

Page generated in 0.1196 seconds