Spelling suggestions: "subject:"duystème multiagents"" "subject:"duystème multisegments""
91 |
Impact des changements d'usage sur la viabilité d'une population menacée dans un espace multi-protégé : le Crave à bec rouge (Pyrrhocorax pyrrhocorax) sur l'île d'OuessantKerbiriou, Christian 04 December 2006 (has links) (PDF)
L'objectif de cette étude a été d'évaluer la viabilité d'une population de Crave à bec rouge (Pyrrhocorax pyrrhocorax), dans un contexte d'espaces protégés confrontés à de profonds changements d'usages des sols. Cet oiseau, espèce emblématique, est en effet susceptible d'être affecté par les modifications des relations société-nature, telles l'abandon des pratiques agricoles et le développement touristique.<br />L'étude s'est dans un premier temps focalisée sur l'identification des facteurs susceptibles d'influencer les paramètres démographiques de cette espèce. Le nombre de sites de reproduction apparaît comme un facteur très probablement limitant. Le succès reproducteur est quant à lui influencé par la superficie d'habitats favorables à proximité des sites de reproduction ainsi que par l'abondance des ressources alimentaires au printemps. Enfin la limitation de l'accès aux zones d'alimentation et la réduction du temps d'alimentation des oiseaux, occasionnées par la fréquentation touristique estivale du littoral, affectent la survie des jeunes Craves. <br />Dans un second temps, la viabilité démographique de cette population a été évaluée à l'aide de différents modèles et au travers de comparaisons de différents scénarios plausibles d'évolution et d'impacts des activités humaines. Dans l'éventualité d'une stabilisation de la fréquentation touristique et du processus d'enfrichement aux niveaux actuels, la population semble viable. Mais comparativement au contexte passé particulièrement favorable, la population semble désormais sur "le fil du rasoir", une diminution même légère d'un des paramètres démographiques conduirait à une extinction inéluctable. Compte-tenu des dynamiques actuelles, le dérangement touristique estival semble impacter le plus la population à court terme. Différents scénarios de gestion ont donc été envisagés, via notamment un modèle démographique spatialement explicite, développé au sein d'un Système Multi-Agents.
|
92 |
De la simulation multi-agents à la simulation multi-niveaux. Pour une réification des interactions.Picault, Sébastien 06 December 2013 (has links) (PDF)
Dans ce mémoire de synthèse d'habilitation à diriger des recherches, je présente les travaux en simulation multi-agents que j'ai menés au sein de l'équipe SMAC (LIFL, Université Lille 1) depuis le début de ma carrière d'enseignant-chercheur en 2002. Ceux-ci portent sur la conception et la mise en application de méthodes et d'outils de simulation destinés à faciliter la modélisation de systèmes complexes à large échelle. Dans ce but, j'ai développé avec mes collègues une approche " orientée interactions " caractérisée par une unification des concepts utilisés dans le domaine des SMA. Elle a donné lieu à une importante élaboration méthodologique et algorithmique (la méthode IODA) dans laquelle toute entité du modèle est représentée par un agent, et tout comportement par une règle appelée interaction. Cette méthode s'appuie sur une séparation entre déclaratif et procédural qui facilite l'acquisition de l'expertise auprès des thématiciens. Par ailleurs de nombreux outils logiciels sont nés de ces recherches (dont la plateforme JEDI et une extension IODA pour la plateforme NetLogo), ainsi que diverses applications dans des domaines variés (biologie cellulaire, serious games, marketing, cartographie). Pour conclure, je présente mon projet de recherche pour les prochaines années qui se propose d'articuler des problématiques issues de travaux récents, d'une part sur la simulation multi-niveaux (qui vise à définir un cadre opérationnel permettant le changement d'échelle d'observation ou de point de vue sur les sous-systèmes d'un système complexe), et d'autre part sur la recherche automatique d'informations dans des données réelles pour augmenter le réalisme comportemental des populations d'agents. Par ailleurs une collaboration avec l'IGN sur l'utilisation de ces techniques pour la généralisation cartographique permet également d'envisager la transposition de ces méthodes de simulation à la résolution de problèmes.
|
93 |
Le point de vue epistémique de théorie de la concurrenceKnight, Sophia 20 September 2013 (has links) (PDF)
Le raisonnement epistémique joue un rôle en théorie de la concurrence de plusieurs manières distinctes mais complémentaires; cette thèse en décrit trois. La première, et presque certainement la moins explorée jusqu'à présent, est l'idée d'utiliser les modalités épistémiques comme éléments d'un langage de programmation. La programmation logique émergea sous le slogan <> et dans le paradigme de la programmation concurrente par contraintes, le lien est manifeste de manière très claire. Dans la première partie de cette thèse, nous explorons le rôle des modalités épistémiques, ainsi que celui des modalités spatiales qui leur sont étroitement liées, en tant que partie intégrante du langage de programmation et non simplement en tant que partie du meta-langage du raisonnement à propos des protocoles. La partie suivante explore une variante de la logique épistémique dynamique adaptée aux systèmes de transitions étiquetés. Contrairement à la partie précédente, on serait tenté de croire que tout ce qu'on pouvait dire à ce sujet a déjà été dit. Cependant, le nouvel ingrédient que nous proposons est un lien étroit entre la logique épistémique et la logique de Hennessy-Milner, cette dernière étant \emph{la} logique des systèmes de transitions étiquetés. Plus précisement, nous proposons une axiomatisation et une preuve d'un théorème de complétude faible, ce qui est conforme au principe général qu'on utilise pour des logiques telles que la logique dynamique mais nécessite des adaptations non triviales. La dernière partie de la thèse se concentre sur l'étude d'agents en interaction dans les processus concurents. Nous présentons une sémantique des jeux pour l'interaction d'agents qui rend manifeste le rôle de la connaissance et du flux d'information dans les interactions entre agents, et qui permet de contrôler l'information disponible aux agents en interaction. Nous utilisons les processus comme support de jeu et définissons des stratégies pour les agents de telle sorte que deux agents qui interagissent conformément à leurs stratégies respectives déterminent l'exécution du processus, rempla{\c}cant ainsi l'ordonnanceur traditionnel. Nous démontrons que des restrictions différentes sur les stratégies réprésentent des quantités d'information différentes disponibles à l'ordonnanceur. Ces restrictions sur les stratégies ont un aspect épistémique explicite, et nous présentons une logique modale pour les stratégies et une caractérisation logique de plusieurs restrictions possibles sur les stratégies. Ces trois approches d'analyse et de représentation de l'information épistémique en théorie de la concurrence apportent une nouvelle manière de comprendre la connaissance des agents dans des processus conncurrents, ce qui est vital dans le monde d'aujourd'hui, dans lequel les systèmes distribués composés de multiples agents sont omniprésents.
|
94 |
Algorithms and Ordering Heuristics for Distributed Constraint Satisfaction ProblemsWahbi, Mohamed 03 July 2012 (has links) (PDF)
Les problèmes de satisfaction de contraintes distribués (DisCSP) permettent de formaliser divers problèmes qui se situent dans l'intelligence artificielle distribuée. Ces problèmes consistent à trouver une combinaison cohérente des actions de plusieurs agents. Durant cette thèse nous avons apporté plusieurs contributions dans le cadre des DisCSPs. Premièrement, nous avons proposé le Nogood-Based Asynchronous Forward-Checking (AFC-ng). Dans AFC-ng, les agents utilisent les nogoods pour justifier chaque suppression d'une valeur du domaine de chaque variable. Outre l'utilisation des nogoods, plusieurs backtracks simultanés venant de différents agents vers différentes destinations sont autorisés. En deuxième lieu, nous exploitons les caractéristiques intrinsèques du réseau de contraintes pour exécuter plusieurs processus de recherche AFC-ng d'une manière asynchrone à travers chaque branche du pseudo-arborescence obtenu à partir du graphe de contraintes dans l'algorithme Asynchronous Forward-Checking Tree (AFC-tree). Puis, nous proposons deux nouveaux algorithmes de recherche synchrones basés sur le même mécanisme que notre AFC-ng. Cependant, au lieu de maintenir le forward checking sur les agents non encore instanciés, nous proposons de maintenir la consistance d'arc. Ensuite, nous proposons Agile Asynchronous Backtracking (Agile-ABT), un algorithme de changement d'ordre asynchrone qui s'affranchit des restrictions habituelles des algorithmes de backtracking asynchrone. Puis, nous avons proposé une nouvelle méthode correcte pour comparer les ordres dans ABT_DO-Retro. Cette méthode détermine l'ordre le plus pertinent en comparant les indices des agents dès que les compteurs d'une position donnée dans le timestamp sont égaux. Finalement, nous présentons une nouvelle version entièrement restructurée de la plateforme DisChoco pour résoudre les problèmes de satisfaction et d'optimisation de contraintes distribués.
|
95 |
Architectures collaboratives pour l'aide à la décision dans les entreprises en réseauOuzrout, Yacine 21 March 2012 (has links) (PDF)
Les travaux de recherche présentés dans mon mémoire d'HDR s'articulent autour de la problématique de la collaboration et de la prise de décision dans les entreprises en réseau, dans des contextes de chaînes logistiques et d'analyse du cycle de vie des produits. Ces travaux ont débuté sur la thématique des modèles informatiques pour la prise de décision dans les systèmes de production. Après avoir étudié les différentes méthodes de modélisation d'entreprise ainsi que les approches liées au pilotage dans les entreprises industrielles, nous avons proposé un modèle de simulation des processus industriels permettant de coupler un simulateur a événement discret, dédié à l'analyse des flux physiques, à un modèle de simulation décisionnel et organisationnel à base d'Agents cognitifs. Nous avons par la suite abordé la problématique de la prise de décision et montré que l'efficacité de la décision dépend de sa capacité à exploiter des mécanismes d'apprentissage comparables à ceux utilisés par l'homme ; pour cela nous avons proposé une évolution du modèle de simulation en intégrant dans les agents logiciels des mécanismes de raisonnement et d'apprentissage (raisonnement à base de cas). Après cette phase d'étude des organisations et des processus intra-entreprise, ces architectures ont ensuite été enrichies de manière à intégrer des problématiques liées à la dimension collaborative dans le cadre des entreprises en réseau et des chaînes logistiques. Pour cela, nous avons proposé des modèles de simulation multi-agents afin de modéliser et de simuler les comportements des acteurs décisionnels dans le cadre des processus collaboratifs, et en particulier, le lien entre collaboration et partage d'information et l'amélioration des performances locale (à chaque entreprise) et globale (à l'ensemble de la chaîne logistique). En parallèle des travaux menés sur la modélisation et la simulation des processus décisionnels dans les entreprises en réseau, il est vite apparu la nécessité d'approfondir les problématiques liées aux systèmes d'information et à la gestion des connaissances. En effet, les processus décisionnels dans des contextes collaboratifs nécessitent un alignement des systèmes d'information aux différents processus organisationnels. Les principaux systèmes d'information existants, par exemple les ERP, ou les systèmes PLM pour la gestion du cycle de vie des produits, ont pour objectif principal d'organiser, de stocker, et de restituer les informations liées aux processus et aux produits dans les différentes phases de leurs cycles de vie (de la conception au recyclage, en passant par les phases de fabrication, de stockage, de maintenance, de distribution,...). Nous avons donc traité de certaines problématiques posées par cet alignement, et en particulier l'intégration des systèmes d'information, l'interopérabilité des systèmes, et la gestion des connaissances. L'évolution de mes préoccupations peut ainsi s'analyser selon quatre phases successives, qui correspondent à un élargissement progressif des problématiques traitées : de la modélisation et la prise de décision dans les systèmes de production, vers la modélisation et la simulation des processus collaboratifs dans les chaînes logistiques et les entreprises en réseau, puis l'intégration par les systèmes d'informations des processus PLM et Supply Chain, et enfin le développement d'architectures et de solutions distribuées pour le partage et l'échange d'information et de connaissances tout au long du cycle de vie des produits. Ces travaux de recherches se sont développés selon trois principaux axes scientifiques : a. Conception de modèles de simulation et d'aide à la décision pour l'étude de la dynamique des systèmes complexes et l'évaluation des performances : modèles formels de décision multicritères, décision collective et distribuée,... b. Intégration des systèmes d'information et mise en place d'architectures et de référentiels techniques pour la gestion et le suivi des données : approches par les modèles, MDA, interopérabilité... c. Développement de systèmes de gestion des connaissances (méthodes hybrides d'ingénierie des connaissances, modèles pour la capitalisation et la réutilisation des connaissances, formalisme de modélisation de la coopération/négociation entre acteurs dans les systèmes distribués... Ces trois dimensions convergent en fait vers un paradigme plus large pour l'aide à la décision dans le cadre des entreprises en réseau : le paradigme de l'entreprise cognitive et collaborative. Ce paradigme place au cœur de la performance des entreprises la nécessité de mettre en œuvre des modes d'organisation réactifs et des modes de collaboration et de synchronisation des systèmes d'information leur permettant de s'intégrer à des chaînes logistiques en fonction des besoins, ou de participer à des projets de développement de produit, et de mettre en place des partenariats et des échanges de manière efficace et facilement reconfigurable. Ceci rejoint les préoccupations actuelles sur les principes d'agilité des entreprises, d'urbanisation des systèmes d'information, et de cloud computing par exemple. Dans ce contexte, et en synthèse de ce mémoire, nous proposerons des pistes de réflexion et des perspectives de recherche issues de ces axes scientifiques, dont les orientations principales sont : vers la définition de modèles cognitifs d'aide à la décision pour les entreprises en réseau, basés sur la simulation et l'optimisation, et intégrant des notions de durabilité des systèmes et des produits et de capitalisation des connaissances à long terme.
|
96 |
CHRYSAOR : un système tutoriel intelligent pour les environnements virtuels d'apprentissage humain. Application à la formation au matériel de laboratoire en hémostase.Le Corre, Frédéric 12 July 2013 (has links) (PDF)
Ce travail de recherche s'inscrit dans le cadre des environnements virtuels pour la formation aux instruments de diagnostic biomédical. La simulation de la situation réelle seule ne suffisant pas, il convient d'incorporer un scénario pédagogique pour construire l'apprentissage. Le scénario s'applique pour tous les apprenants, il est donc important d'intégrer des possibilités d'individualisation. Pour cela, nous proposons de coupler l'environnement virtuel à un Système Tutoriel Intelligent (STI). Notre étude débute par une identification des systèmes existants qui nous semblent les mieux adaptés, sur lesquels baser notre proposition : le STI Pegase, le modèle de scénario pédagogique Poseidon et le méta-modèle Mascaret. Ceci nous permet également d'identifier les limites de Pegase qui sont : le manque de lien avec le scénario pédagogique, le manque de modularité et le manque d'individualisation. Notre proposition, appelée Chrysaor, vise à combler ces faiblesses. Nous proposons ainsi qu'un scénario pédagogique soit une connaissance explicite et par conséquent exploitable par un STI. Les concepts proposés dans notre modèle permettent également au formateur de facilement modifier les comportements, les rôles et les affectations (humain ou agent autonome) : notre système devient ainsi modulaire. Nous illustrons ensuite l'utilisation de Chrysaor dans une application de formation par la réalité virtuelle à un instrument de diagnostic en hémostase utilisé en milieu hospitalier. Sur cette application, des expérimentations comparant les deux types de formation (traditionnelle et virtuelle) permettent de vérifier la qualité de l'apprentissage obtenu par une formation en réalité virtuelle, et de vérifier que ces connaissances sont transférables en environnement réel.
|
97 |
Contributions en vue de rendre plus naturelle l'interaction entre une personne handicapée et son assistance robotisée.Delarue, Sébastien 30 November 2007 (has links) (PDF)
Les recherches sur l'assistance technique aux personnes handicapées se sont beaucoup développées ces dernières années. Le projet ARPH (Assistance Robotique aux Personnes Handicapées) du laboratoire IBISC, débuté en 1994, consiste en un bras manipulateur embarqué sur une base mobile pour l'assistance à la saisie et la manipulation d'objets à distance. Cette thèse aborde tout d'abord la commande du robot en s'appuyant sur un système multi-agents. Le robot étudié étant redondant (6 degrés de liberté pour le bras et 2 degrés de liberté pour la base mobile), le premier objectif est de proposer une commande valable même en cas de dysfonctionnement d'une ou plusieurs articulations. Le second objectif de cette commande est d'atteindre le but choisi par la personne en conservant, dans la mesure du possible, une posture du bras loin de ses singularités. Le système reste ainsi le plus manipulable possible à chaque instant. Les résultats ont été comparés avec une autre méthode multi-agent et une commande classique basée sur la notion de manipulabilité. La méthode proposée améliore notablement ceux obtenus par les deux autres. La conception d'un tel système, complexe et innovant, demande la mise en place d'une méthodologie. La norme ISO 13407 définit le processus de Conception Centrée sur l'Utilisateur (CCU) pour les systèmes interactifs. Elle est initialement destinée au développement d'interfaces logicielles. Le processus de conception mis en œuvre est itératif, ce qui le rend inutilisable pour des systèmes dits complexes car comprenant non seulement des composantes logicielles mais aussi des composantes matérielles (mécaniques, électroniques...). Les techniques de la réalité virtuelle ont été mises à contribution afin de rendre cette démarche de CCU opérante pour un système complexe (CCU-SC). Une modélisation virtuelle initiale du système permet une première série d'évaluations avec les utilisateurs finaux. Lorsqu'une partie du système est validée par les opérateurs, elle peut être développée réellement. On entre alors dans un cycle d'évaluation d'un système dit mixte car comprenant des parties réelles et des parties virtuelles. On utilise ici les techniques de la réalité mixée, de la virtualité augmentée à la réalité augmentée. Après plusieurs cycles de ce type, on aboutit à un système réel. Outre le processus de conception, la méthode fournit un simulateur du système réel. Ce dernier peut être exploité après la conception pour l'apprentissage par les futurs utilisateurs. Un simulateur du projet ARPH a été développé pendant cette thèse. Il a été évalué avec l'aide d'étudiants de psychologie expérimentale. Deux types d'évaluation ont permis à des utilisateurs handicapés et non handicapés de manipuler le système réel et le simulateur. La première série de tests a eu pour but d'évaluer le transfert d'habiletés entre simulateur et système réel. La deuxième série de tests avait pour objectif l'évaluation du robot d'assistance en situation écologique c'est-à-dire la plus proche possible d'une situation naturelle.
|
98 |
Recherche et détection des patterns d'attaques dans les réseaux IP à hauts débitsZaidi, Abdelhalim 14 January 2011 (has links) (PDF)
Avec leur rôle important dans la protection des réseaux, les Systèmes de Détection d'Intrusion (IDS) doivent être capables d'adapter leurs modes de fonctionnement à toutes les innovations technologiques. L'IDS doit gérer une grande masse d'information et traiter un trafic réseau à une cadence très élevée à cause des vitesses de transfert et de la diversité des services offerts. Il doit aussi traiter un grand nombre d'attaques qui ne cesse d'augmenter. Par conséquent, améliorer les performances des IDS devient une tâche critique pour les concepteurs des mécanismes de protection. Dans notre thèse, nous nous focalisons sur les problèmes liés aux paramètres quantitatifs de l'utilisation des l'IDS. Nous proposons une approche pour la classification des signatures d'attaques en fonction de leurs sous-chaînes communes. Cette approche permet de réduire le nombre des signatures traitées et par conséquent réduire le temps d'exécution. Nous traitons aussi le problème de la masse de données analysée par l'IDS, nous proposons une architecture de détection basée sur la classification des connexions réseau. L'architecture proposée permet de décider de la nature d'une connexion : suspecte ou non. Dans le premier cas, la connexion doit être analysée par le système de détection d'intrusion. Sinon, si elle n'est pas suspecte nous pouvons décider de ne pas l'analyser par l'IDS.
|
99 |
Profiterole : un protocole de partage équitable de la bande passante dans les réseaux ad hocVannier, Rémi 08 December 2009 (has links) (PDF)
On considère souvent IEEE 802.11 comme la technologie sous-jacente aux réseaux sans fil multisauts. Pourtant, dans de tels réseaux, 802.11 s'avère inefficace et/ou inéquitable dans de nombreuses situations. Cette thèse décrit un algorithme d'allocation dynamique et distribuée de débit permettant de garantir un partage équitable de la bande passante entre flux, tout en assurant une utilisation efficace du réseau. De plus, cette thèse propose une nouvelle méthode d'évaluation de l'efficacité d'un protocole en prenant en compte l'expérience utilisateur.
|
100 |
Une approche multi-agents pour le développement d'un jeu vidéoAsselin, Guillaume 06 1900 (has links)
Un système multi-agents est composé de plusieurs agents autonomes qui interagissent entre eux dans un environnement commun. Ce mémoire vise à démontrer l’utilisation d’un système multi-agents pour le développement d’un jeu vidéo. Tout d’abord, une justification du choix des concepts d’intelligence artificielle choisie est exposée. Par la suite, une approche pratique est utilisée en effectuant le développement d’un jeu vidéo. Pour ce faire, le jeu fut développé à partir d’un jeu vidéo mono-agent existant et mo- difié en système multi-agents afin de bien mettre en valeur les avantages d’un système multi-agents dans un jeu vidéo. Le développement de ce jeu a aussi démontré l’applica- tion d’autres concepts en intelligence artificielle comme la recherche de chemins et les arbres de décisions. Le jeu développé pour ce mémoire viens appuyer les conclusions des différentes recherches démontrant que l’utilisation d’un système multi-agents per- met de réaliser un comportement plus réaliste pour les joueurs non humains et bien plus compétitifs pour le joueur humain. / A multi-agent system is composed of several autonomous agents that interact with each other in a common environment. This thesis aims to demonstrate the use of a multi- agent system for the development of a video game. First, a justification of the artificial intelligence’s concepts used in this master’s thesis is exposed. Subsequently, a practical approach is used in developping a video game. To do this, the game was developed from an existing single-agent video game and modified into a multi-agent system in order to properly highlight the benefits of a multi-agent system in a video game. The development of this game also demonstrate the application of other concepts in artificial intelligence such as pathfindinig and behaviour trees. In summary, the use of a multi- agent system has achieved a more realistic behavior for the non-human players and a more competitive gameplay for the human player.
|
Page generated in 0.073 seconds