• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 13
  • 3
  • Tagged with
  • 16
  • 16
  • 16
  • 16
  • 7
  • 7
  • 5
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Cadre algébrique pour le renforcement de politique de sécurité sur des systèmes concurrents par réécriture automatique de programmes

Langar, Mohamed Mahjoub January 2010 (has links)
La société moderne est de plus en plus dépendante de l'informatique dont le rôle est devenu tellement vital au point que tout dysfonctionnement peut engendrer des pertes considérables voire des conséquences irréversibles telles que la perte de vies humaines. Pour minimiser les dégâts, plusieurs techniques et outils ont été mis en place au cours des dernières années. Leur objectif est de faire en sorte que nos systèmes informatiques fonctionnent < < ~tout le temps~> > , et ce, tout en produisant les résultats escomptés. La duplication du matériel et les tests de logiciels sont parmi les techniques les plus utilisées. Cependant, sans méthodes formelles, rien n'est garanti et des problèmes peuvent surgir à tout moment. En contrepartie, l'utilisation de méthodes formelles n'est pas à la portée de tout le monde y compris les programmeurs chevronnés et la tâche reste subtile et complexe même pour les spécialistes. Quelques lignes de code nécessitent parfois des centaines de lignes de preuve difficiles à lire et à comprendre. Malgré tout, leur utilisation n'est plus un luxe, mais plutôt nécessaire afin d'éviter les dégâts engendrés par les mauvais fonctionnements de nos systèmes critiques. Le principal objectif de notre recherche est de développer un cadre formel et automatique pour le renforcement de politique de sécurité sur des systèmes concurrents. Plus précisément, l'idée consiste à ajouter dans un programme des tests à des endroits soigneusement calculés pour qu'une politique de sécurité soit respectée. La nouvelle version du programme préserve toutes les traces de la version originale respectant la politique de sécurité et bloque les traces qui ne peuvent plus respecter la politique de sécurité même si elles sont complétées par certains suffixes. Les principaux résultats ayant contribué à l'atteinte de cet objectif sont : 1. La définition d'une algèbre de processus [symbol] offrant un cadre purement algébrique pour le renforcement de politique de sécurité sur des systèmes concurrents. Plus précisément, nous avons défini un nouvel opérateur qui permet de renforcer, d'une manière intuitive, une politique de sécurité sur un système concurrent. 2. La définition d'une logique, dénotée par [symbol], inspirée des expressions régulières étendues. En effet, [symbol] est une logique linéaire qui exprime la classe de langage régulier, mais avec la possibilité d'exprimer des propriétés infinies. 3. La définition d'une algèbre [symbol] basée sur l'algèbre [symbol]. [symbol] définit un nouvel opérateur de renforcement qui tient compte de l'introduction de la logique. 4. Le développement d'une technique d'optimisation qui, pour une certaine classe de propriétés de sécurité, permet de réduire le nombre de tests insérés dans le programme renforcé. / One of the important goals of the software development process is proving that the produced systems always meet their requirements. However, establishing this goal is not only subtle and complex, but also requires high qualified persons. In addition, this operation is mostly omitted due to its high cost and the system is tested while trying to reduce the risk of errors as much as possible. The cost is, nevertheless, paid when this operation is required in order to avoid catastrophic consequences and major errors. In these cases, tools like theorem prover and those used for automatic generation of software are helpful to significantly reduce the cost of proof. Our aim is that this tool proves to be powerful and simple enough to generate benefits even to small companies and individuals with scarce budgets and limited theoretical skills . Many promising formal frameworks for automatic enforcement of security policies in programs have been proposed during the last years. Their goal is to ensure that a program respects a given security policy which generally specifies acceptable executions of the program and can be expressed in terms of access control problems, information flow, availability of resources, confidentiality, etc. The literature records various techniques for enforcing security policies belonging to mainly two principal classes: static approaches including typing theory, Proof Carrying Code, and dynamic approaches including reference monitors, Java stack inspection. Static analysis aims at enforcing properties before program execution. In dynamic analysis, however, the enforcement takes place at runtime by intercepting critical events during the program execution and halting the latter whenever an action is attempting to violate the property being enforced. Recently, several researchers have explored rewriting techniques in order to gather advantages of both static and dynamic methods. The idea consists in modifying a program statically, so that the produced version respects the requested requirements. The rewritten program is generated from the original one by adding, when necessary, some tests at some critical points to obtain the desired behaviors. This thesis aims to propose an algebraic and automatic approach that could generate from a given program, and a security policy, a new version of this program that respects the requested security policy. More precisely, we define an operator [symbol] that takes as input a process [symbol] and a security policy [symbol] and generates [symbol], a new process that respects the following conditions: [symbol] "satisfies" the security policy [symbol]. [symbol], behaviours of [symbol] are also behaviours of [symbol]. [symbol], all good behaviours of [symbol] are also behaviours [symbol]. The main results of our research are the following~: 1. The definition of a process algebra [symbol] offering an algebraic framework for the enforcement of security policies on concurrent systems. 2. The definition of a logic, denoted by [symbol], inspired from Kleene algebras and regular expressions. Basically, it allows to specify properties that can be checked on a trace-based model and properties related to infinite behavior (e.g. a server should not send the password of users). The choice of this logic is motivated by its syntax that is close to the one chosen for processes. In fact, this similarity is helpful to simplify the definition of our formal monitor. 3. The development of an optimization technique which, for a certain class of security properties, reduces the number of tests added in the target.
2

Bornes PAC-Bayes et algorithmes d'apprentissage

Lacasse, Alexandre. 16 April 2018 (has links)
Tableau d’honneur de la Faculté des études supérieures et postdoctorales, 2010-2011 / L’objet principale de cette thèse est l’étude théorique et la conception d’algorithmes d’apprentissage concevant des classificateurs par vote de majorité. En particulier, nous présentons un théorème PAC-Bayes s’appliquant pour borner, entre autres, la variance de la perte de Gibbs (en plus de son espérance). Nous déduisons de ce théorème une borne du risque du vote de majorité plus serrée que la fameuse borne basée sur le risque de Gibbs. Nous présentons également un théorème permettant de borner le risque associé à des fonctions de perte générale. À partir de ce théorème, nous concevons des algorithmes d’apprentissage construisant des classificateurs par vote de majorité pondérés par une distribution minimisant une borne sur les risques associés aux fonctions de perte linéaire, quadratique, exponentielle, ainsi qu’à la fonction de perte du classificateur de Gibbs à piges multiples. Certains de ces algorithmes se comparent favorablement avec AdaBoost. / The main purpose of this thesis is the theoretical study and the design of learning algorithms returning majority-vote classifiers. In particular, we present a PAC-Bayes theorem allowing us to bound the variance of the Gibbs’ loss (not only its expectation). We deduce from this theorem a bound on the risk of a majority vote tighter than the famous bound based on the Gibbs’ risk. We also present a theorem that allows to bound the risk associated with general loss functions. From this theorem, we design learning algorithms building weighted majority vote classifiers minimizing a bound on the risk associated with the following loss functions : linear, quadratic and exponential. Also, we present algorithms based on the randomized majority vote. Some of these algorithms compare favorably with AdaBoost.
3

Contributions à la résolution des processus décisionnels de Markov centralisés et décentralisés : algorithmes et théorie

Dibangoye, Jilles Steeve 17 April 2018 (has links)
Cette thèse porte sur les problèmes de prise de décisions séquentielles sous incertitudes dans un système mono ou multi-agents. Les processus décisionnels de Markov offrent un modèle mathématique permettant à la fois de formaliser et de résoudre de tels problèmes. Il existe de multiple travaux proposant des techniques efficaces pour la résolution des processus décisionnels de Markov. Néanmoins, trois facteurs, dits malédictions, limitent grandement le passage à l'échelle de ces techniques. Le premier facteur, la malédiction de la dimension, est le plus connu. Il lie la complexité des algorithmes au nombre d'états du système dont la croissance est exponentielle en fonction des attributs des états. Le second facteur, la malédiction de l'historique, a été identifié plus récemment. Il lie la complexité des algorithmes à la dimension exponentielle de l'espace des historiques à prendre en compte afin de résoudre le problème. Enfin, le dernier facteur, là malédiction de la distributivité, est identifié dans cette thèse. Il lie la complexité des algorithmes à la contrainte du contrôle distribué d'un système, résultant sur une complexité doublement exponentielle. À travers nos contributions, nous proposons une réponse à chacune des trois malédictions. Nous atténuons à la fois la malédiction de la dimension et la malédiction de l'historique en exploitant les dépendances causales soit entre états soit entre historiques. Suivant cette idée, nous proposons une famille d'algorithmes exacts et approximatifs, nommée programmation dynamique topologique, visant à résoudre les processus décisionnels de Markov complètement ou partiellement observables. Ces algorithmes permettent de réduire considérablement le nombre de mises à jour d'un état ou d'un historique. Ainsi, lorsque les problèmes sont munis d'une structure topologique, la programmation dynamique topologique offre une solution efficace. Pour pallier aux effets de la malédiction de la distributivité, nous avons proposé d'étendre la planification centralisée au cadre du contrôle distribué. Nous proposons une analyse formelle des problèmes de contrôle distribué des processus décisionnels de Markov sous le regard de la planification centralisée. De cette analyse, de nombreux algorithmes de planification centralisée ont vu le jour. Parmi eux, figure point-based incremental pruning (PBIP), l'algorithme approximatif pour la résolution des processus de Markov décentralisés, le plus efficace à ce jour.
4

Approche évolutionnaire pour la planification d'itinéraires dans un environnement dynamique

Barkaoui, Mohamed January 2010 (has links)
Le problème de planification d'itinéraires dans un environnement dynamique est un problème complexe. Ce problème est d'autant plus difficile que les décisions doivent se prendre dans un temps limité, en se basant sur des informations incertaines et qui évoluent dans le temps. Nous nous sommes intéressés aux méthodes métaheuristiques, et plus particulièrement aux algorithmes génétiques pour résoudre ce problème. Plusieurs approches habituellement proposées pour ce problème sont purement prescriptives et ne garantissent que la convergence vers une solution réalisable au détriment de l'optimalité. De plus, les approches basées sur les algorithmes génétiques souffrent toutes du problème de calibrage des paramètres, une étape importante quand quelqu'un décide de les utiliser. Notre thèse s'inscrit dans le cadre de cette nouvelle direction de recherche et puise sa motivation plus particulièrement dans la volonté de répondre à quelques-unes des problématiques rencontrées dans des applications temps-réel. Nous proposons une approche générique utilisant un processus évolutionnaire à deux niveaux pour régler le problème de calibrage de combinaisons d'opérateurs dans les algorithmes génétiques. Nous avons développé une stratégie d'attente qui exploite des connaissances probabilistes sur les événements futurs afin de produire des solutions robustes et de meilleure qualité en temps réel. De plus, dans le cas des problèmes de transport utilisant des flottes de véhicules (pour la distribution des biens et services), l'approche proposée reflète la réalité de façon plus adéquate en considérant différentes situations observées en pratique comme des temps de voyage variables, et en intégrant des stratégies et mécanismes appropriés pour chacune des situations identifiées. Nous avons présenté une vision plus large du concept de diversion et nous avons introduit une condition d'acceptation d'une diversion dans la planification d'itinéraires en temps réel. Afin de faire face aux pressions temporelles inhérentes à un contexte dynamique, nous avons opté pour des implantations parallèles afin d'accélérer les temps de réponse. Enfin, des tests numériques ont été réalisés à l'aide de simulations utilisant une adaptation des instances de problèmes de Solomon pour le problème de tournées de véhicules avec fenêtres de temps (VRPTW). Dans ce problème, il s'agit d'affecter des requêtes de clients qui arrivent en temps réel à une flotte de véhicules en mouvement. Ce processus implique aussi la construction simultanée d'un ensemble d'itinéraires planifiés qui satisfont la demande, tout en respectant diverses contraintes. Afin de minimiser les biais, le même jeu de données utilisé dans la littérature pour le VRPTW dynamique a été employé pour réaliser notre étude. Les résultats numériques confirment la pertinence des différentes stratégies que nous avons développées et la supériorité de notre approche de planification d'itinéraires en temps réel comparativement à d'autres méthodes proposées dans la littérature.
5

Modélisation des interfaces utilisateur intelligentes pour les environnements informatisés dédiés à l'apprentissage humain

Leclair, Olivier January 2010 (has links)
Les interfaces utilisateur intelligentes (IUI) est un domaine de recherche relativement jeune et pluridisciplinaire, car il fait appel à l'ingénierie des connaissances et au domaine des interfaces personne-machine. Nous avons choisi un cadre spécifique, les environnements informatisés dédiés à l'apprentissage humain (EIAH), pour ainsi bien cibler nos recherches. En étudiant la documentation scientifique sur les IUI dans des EIAH, nos recherches ont montré qu'il y a absence de modèle pour construire des IUI efficaces. Pour remédier ce problème, nous proposons un modèle générique d'IUI qui intègre cinq composantes d'interface pour améliorer les EIAH. Ce modèle a été construit à partir de l'étude des critères d'évaluation d'interfaces et de l'étude d'IUI dans des EIAH existantes. Ce modèle a pour but de créer des IUI qui répondent mieux aux besoins des utilisateurs, qui améliorent l'interaction entre l'humain et la machine, et donc aident les personnes dans leur apprentissage. De plus, il se veut un guide afin de faciliter la conception de ces IUI. Ce modèle a été mis à l'épreuve par une évaluation heuristique par des experts afin de démontrer que notre modèle atteint bien ses objectifs. L'intégration des cinq composantes rend les IUI plus efficaces et de meilleure qualité et leur description peut facilement être réutilisable pour toute autre conception d'IUI de EIAH. Cependant, la mise à jour régulière du modèle s'avère nécessaire et une description plus formelle des composantes pourraient être proposées.
6

Gestion du raisonnement à base de cas avec l'apprentissage par renforcement pour un jeu contraint dans le temps

Romdhane, Houcine January 2010 (has links)
Dans ces travaux, nous tentons d’améliorer l’aspect comportemental dans les jeux vidéo en utilisant le raisonnement par cas (Case Based Reasoning - CBR), qui simule le comportement humain. Cette technique, provenant du domaine de l’intelligence artificielle, résout de nouveaux problèmes en retrouvant des expériences analogues dans sa base de cas et en les adaptant au nouveau problème considéré. Nous utilisons le CBR pour l’automatisation de décisions prises par des composantes d’un jeu. La construction d’un module CBR nécessite l’accumulation de plusieurs épisodes de jeu pour former la base de cas du module. Cependant, lorsqu’un grand nombre d’épisodes sont emmagasinés dans la base de cas, la réponse en temps du système s’alourdit. Nous sommes alors confrontés au défi d’améliorer le temps de réponse du module CBR tout en gardant un niveau de performance acceptable du système. Dans ce mémoire, nous utilisons le jeu de Tetris pour mener notre étude. Ce jeu présente un intérêt particulier car les décisions à prendre sont contraintes dans le temps. Nous proposons dans ce mémoire de répondre aux questions suivantes : Comment formuler un système CBR pour jouer au jeu Tetris. Quelle est la performance attendue par un système CBR appliqué à ce jeu. Quel est le niveau du jeu qui peut être atteint par l’estimation de la valeur des cas obtenus par apprentissage par renforcement. Comme Tetris est un jeu contraint par le temps, quel est le niveau de dégradation de performances qui peut être perçue par la réduction de la taille de la base de cas. / In this work, we try to improve the behavioral aspects of video games using Case Based Reasoning (CBR), which can reproduce human behavior as reasoning by similarity, as well as remembering and forgetting previous experiences. This technique, coming from the Artificial Intelligence field, solves new problems by retrieving similar past experiences in the case base and adapting solution to solve new problems. We use CBR for the automation of decisions made by the game engine. The construction of a CBR system needs to accumulate many episodes from the gaming environment to create the case base of the CBR engine. However, as the number of episodes being saved in the case base increases, the response time of the CBR system slows down. We are then facing a dilemma: reducing the size of the case base to improve the response of the CBR system while keeping an acceptable level of performance. In this master thesis, we use the game of Tetris to conduct our case studies. This game presents some particular interests, as decisions to be made are limited by time constraints. We propose in this thesis to answer the following questions: How to construct a CBR system to play the game of Tetris. What is the expected performance of the system applied to this game? Wich game level can be reached by estimating case value through reinforcement learning? As time response constraints are inherent to Tetris, which degradation of performance can be expected by removing cases from the case base?
7

Predictive representations for sequential decision making under uncertainty

Boularias, Abdeslam 17 April 2018 (has links)
La prise de décision est un problème omniprésent qui survient dés qu'on fait face à plusieurs choix possibles. Ce problème est d'autant plus complexe lorsque les décisions, ou les actions, doivent être prise d'une manière séquentielle. En effet, l'exécution d'une action à un moment donné entraîne un changement à l'environnement, ou au système qu'on veut contrôler, et un tel changement ne peut pas être prévu avec certitude. Le but d'un processus de prise de décision consiste alors à choisir des actions en vue de se comporter d'une manière optimale dans un environnement incertain. Afin d'y parvenir, l'environnement est souvent modélisé comme un système dynamique à plusieurs états, et les actions sont choisies d'une telle manière à ramener le système vers un état désirable. Dans le cadre de cette thèse, nous avons proposé un ensemble de modèles stochastiques et d'algorithmes, afin d'améliorer la qualité du processus de prise de décision sous l'incertain. Les modèles développés sont une alternative aux Processus Décisionnels de Markov (MDPs), un cadre formel largement utilisé pour ce genre de problèmes. En particulier, nous avons montré que l'état d'un système dynamique peut être représenté d'une manière plus concise lorsqu'il est décrit en termes de prédictions de certains événements dans le futur. Nous avons aussi montré que le processus cognitif même du choix d'actions, appelé politique, peut être vu comme un système dynamique. Partant de cette observation, nous avons proposé une panoplie d'algorithmes, tous basés sur des représentations prédictives de politiques, pour résoudre différents problèmes de prise de décision, tels que la panification décentralisée, l'apprentissage par renforcement, ou bien encore l'apprentissage par imitation. Nous avons montré analytiquement et empiriquement que les approches proposées mènent à des réductions de la complexité de calcul et à une amélioration de la qualité des solutions par rapport aux approches d'apprentissage et de planification standards.
8

Raisonnement stratégique et tactique : une approche pour la communication entre agents logiciels basée sur la pertinence

Mbarki, Mohamed 17 April 2018 (has links)
Dans cette thèse, nous proposons une approche de communication entre agents logiciels basée sur la pertinence. Le problème est pour nous de permettre aux agents logiciels participant à des interactions dialogiques argumentatives d'être plus efficaces dans leurs communications. Nous nous sommes focalisés sur les deux questions : 1) l'élaboration d'un modèle permettant aux agents de générer, d'adopter, d'annuler et de réaliser les sous-buts nécessaires à l'accomplissement de leurs buts conversationnels; 2) l'élaboration d'un modèle permettant aux agents de choisir à chaque étape de l'interaction dialogique, les arguments les plus pertinents qui contribuent à la réalisation de leurs buts conversationnels. En premier lieu, nous avons développé un modèle de raisonnement stratégique qui permet à un agent logiciel participant à une interaction dialogique d'avoir une orientation, en termes des contraintes à satisfaire et de sous-buts à accomplir, lui permettant de réaliser son but conversationnel. Notre idée fondamentale est de proposer un modèle de communication entre agents logiciels basé sur la notion de stratégie, au lieu des protocoles de communication. La stratégie d'un agent est déterminée par un raisonnement stratégique. Ce raisonnement permet d'une part, de choisir le plan global de la communication en termes de buts stratégiques à accomplir afin de réaliser le but conversationnel. D'autre part, le raisonnement stratégique permet d'orienter la réalisation d'un but en spécifiant les contraintes que l'agent veut satisfaire. Les buts stratégiques sont les sous-buts nécessaires à la réalisation du but conversationnel. Pour adopter ou réviser une stratégie, nous avons proposé un cadre formel basé sur les arguments pour gérer les buts stratégiques et les contraintes des agents. Les buts stratégiques sont générés au début du dialogue, comme ils peuvent être annulés ou remplacés par des alternatives pendant le déroulement de l'interaction dialogique. Ces alternatives sont d'une grande importance. En effet, elles permettent aux agents de persister dans la poursuite de leurs buts. Cependant, les contraintes reflètent les limites rencontrées par l'agent pour réaliser son but conversationnel. Ces contraintes peuvent être également générées au début ou au cours du déroulement de l'interaction dialogique. Un autre point important dans notre approche réside dans le fait que les agents peuvent vérifier à chaque instant qu'un but poursuivi est réalisable ou non, ce qui permet de renforcer la rationalité et l'efficacité des agents. Nous avons ensuite élaboré un modèle de raisonnement tactique permettant aux agents de réaliser leurs buts stratégiques élémentaires fixés par la stratégie adoptée d'une façon pertinente. Dans les approches argumentatives, les actions des agents sont justifiées par des arguments. Afin de permettre aux agents d'agir d'une façon pertinente, notre modèle de raisonnement permet de choisir à chaque étape de l'interaction dialogique l'argument le plus pertinent qui a, selon les connaissances de l'agent, la plus forte chance d'être accepté par l'interlocuteur. C'est l'argument qui va être utilisé pour supporter l'acte de langage permettant la réalisation d'un but stratégique élémentaire fixé par la stratégie adoptée par l'agent. Notre modèle de raisonnement tactique est guidé par un mécanisme de sélection. Ce mécanisme permet, dans un premier temps, de supprimer les arguments non pertinents. Ensuite, il permet d'établir un ordre entre les arguments pertinents en utilisant la relation d'ordre de pertinence. Cette relation est basée sur la relation de favori entre les arguments, les préférences privées de l'agent et le risque d'échec de chaque argument. Ce mécanisme emploie notre théorie de la pertinence qui tient compte du contexte de l'interaction dialogique. Un avantage important de l'utilisation de ce mécanisme de sélection réside dans le fait qu'il permet le retour-arrière pour explorer d'autres alternatives d'argumentation. Ceci permet à l'agent de persister davantage dans la réalisation de son but conversationnel. Notre modèle de raisonnement tactique permet également de comparer les arguments indépendamment de leurs conclusions. Ceci permet à l'agent de décider, selon l'argument le plus pertinent sélectionné, s'il va attaquer le point de vue de son adversaire ou s'il va défendre son point de vue. Par ailleurs, nous avons proposé un modèle de négociation basé sur les contraintes et utilisant l'argumentation. Dans ce modèle, chaque agent est capable de déterminer, à chaque étape de la négociation, l'ensemble de ses arguments potentiels et l'ensemble de ses offres potentielles. Chaque offre doit être justifiée par des arguments. Chaque agent essaye de réaliser son but en utilisant des arguments pour convaincre les autres agents de faire des concessions. La prise en compte des arguments reçus et de nouveaux arguments générés durant la négociation permet aux agents d'avoir des ensembles d'offres qui varient d'une étape à l'autre, ce qui permet de refléter l'aspect dynamique des négociations. Dans le cas où il y a plusieurs arguments qui supportent la même offre, nous utilisons notre modèle de raisonnement tactique pour déterminer l'argument le plus pertinent. Les contraintes de négociation permettent à chaque agent négociateur de déterminer son espace d'accord. Ainsi, chaque agent pourrait calculer son degré de satisfaction, soit pour chaque contrainte de négociation soit pour la négociation au complet. Notre modèle permet également à chaque agent négociateur de calculer ses offres en fonction de l'ensemble des variables associées aux contraintes de négociation, ce qui lui permet de garantir sa satisfaction et d'éviter le risque de faire des concessions excessives à l'autre agent. De plus, l'utilisation du processus d'argumentation, permet à nos agents de faire des concessions lorsque cela s'avère nécessaire, ce qui leur permet d'avoir plus de chances d'atteindre un accord. Pour décrire l'évolution de la négociation, nous proposons un algorithme qui spécifie le comportement de chaque agent dans les différentes situations. En outre, nous avons montré que notre approche permet à chaque agent de toujours choisir la meilleure offre et la négociation se termine toujours avec ou sans accord après un nombre fini d'étapes. S'il y a un accord dans une négociation donnée, nous avons montré que cet accord constitue un compromis satisfaisant pour les deux agents négociateurs. Nous avons également implémenté notre algorithme de négociation.
9

Automated generation of geometrically-precise and semantically-informed virtual geographic environnements populated with spatially-reasoning agents

Mekni, Mehdi 16 April 2018 (has links)
La Géo-Simulation Multi-Agent (GSMA) est un paradigme de modélisation et de simulation de phénomènes dynamiques dans une variété de domaines d'applications tels que le domaine du transport, le domaine des télécommunications, le domaine environnemental, etc. La GSMA est utilisée pour étudier et analyser des phénomènes qui mettent en jeu un grand nombre d'acteurs simulés (implémentés par des agents) qui évoluent et interagissent avec une représentation explicite de l'espace qu'on appelle Environnement Géographique Virtuel (EGV). Afin de pouvoir interagir avec son environnement géographique qui peut être dynamique, complexe et étendu (à grande échelle), un agent doit d'abord disposer d'une représentation détaillée de ce dernier. Les EGV classiques se limitent généralement à une représentation géométrique du monde réel laissant de côté les informations topologiques et sémantiques qui le caractérisent. Ceci a pour conséquence d'une part de produire des simulations multi-agents non plausibles, et, d'autre part, de réduire les capacités de raisonnement spatial des agents situés. La planification de chemin est un exemple typique de raisonnement spatial dont un agent pourrait avoir besoin dans une GSMA. Les approches classiques de planification de chemin se limitent à calculer un chemin qui lie deux positions situées dans l'espace et qui soit sans obstacle. Ces approches ne prennent pas en compte les caractéristiques de l'environnement (topologiques et sémantiques), ni celles des agents (types et capacités). Les agents situés ne possèdent donc pas de moyens leur permettant d'acquérir les connaissances nécessaires sur l'environnement virtuel pour pouvoir prendre une décision spatiale informée. Pour répondre à ces limites, nous proposons une nouvelle approche pour générer automatiquement des Environnements Géographiques Virtuels Informés (EGVI) en utilisant les données fournies par les Systèmes d'Information Géographique (SIG) enrichies par des informations sémantiques pour produire des GSMA précises et plus réalistes. De plus, nous présentons un algorithme de planification hiérarchique de chemin qui tire avantage de la description enrichie et optimisée de l'EGVI pour fournir aux agents un chemin qui tient compte à la fois des caractéristiques de leur environnement virtuel et de leurs types et capacités. Finalement, nous proposons une approche pour la gestion des connaissances sur l'environnement virtuel qui vise à supporter la prise de décision informée et le raisonnement spatial des agents situés.
10

Modélisation de dialogues à l'aide d'un modèle Markovien caché

Besbes, Ghina 16 April 2018 (has links)
La modélisation de dialogue humain-machine est un domaine de recherche qui englobe plusieurs disciplines telles que la philosophie, les sciences cognitives et sociales, et l’informatique. Elle a pour but de reproduire la capacité humaine afin d’apprendre des stratégies optimales de dialogue. De plus, elle vise à concevoir et à évaluer des systèmes de gestion de dialogue ou d’étudier plus en détails la nature des conversations. Par ailleurs, peu de modèles de simulation de dialogues existants ont été jugé bons. Ce mémoire présente un modèle de Markov caché qui prédit l’action de l’utilisateur dans les systèmes de dialogue étant donné l’action du système précédente. L’apprentissage du modèle a été réalisé selon une approche d’apprentissage non supervisé en utilisant différentes méthodes de la validation croisée. Quant à l’évaluation du modèle, elle a été faite en utilisant différentes métriques. Les résultats de l’évaluation ont été en dessous des attentes mais tout de même satisfaisants par rapport aux travaux antérieurs. Par conséquent, des avenues de recherches futures seront proposées pour surpasser cette problématique. Mots-clés : traitement de la langue naturelle, dialogue oral homme-machine, modèle de Markov caché, apprentissage non supervisé, validation croisée. / Modeling human-machine dialogue is a research area that encompasses several disciplines such as philosophy, computer science, as well as cognitive and social sciences. It aims to replicate the human ability to learn optimal strategies of dialogue. Furthermore, it aims to design and evaluate management systems for dialogue, and to study the nature of the conversations in more detail. Moreover, few simulation models of existing dialogues were considered good. This thesis presents a hidden Markov model that predicts the action of the user in dialogue systems on the basis of the previous system action. The learning model has been realized through an approach to unsupervised learning using different methods of cross validation. As for model evaluation, it has been done using different metrics. The evaluation results were below expectation. Nonetheless, they are satisfactory compared to previous work. Ultimately, avenues for future research are proposed to overcome this problem. Keywords: natural language processing, spoken dialogue human-machine, Hidden Markov Model (HMM), unsupervised learning, cross validation.

Page generated in 0.0311 seconds