• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 12
  • 7
  • Tagged with
  • 19
  • 19
  • 19
  • 19
  • 6
  • 6
  • 5
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Évaluation de performance de la méthode d'accès radio 1xEV-DO

Mekni, Mehdi January 2006 (has links)
La technologie d'accès radio 1xEV-DO, également connue sous le nom d'IS-856, fait partie des alternatives potentielles d'évolution pour les systèmes CDMA2000 (1x). Elle est conçue pour améliorer le support des services de données, et plus précisément, pour augmenter la capacité du débit binaire exigé par les applications évoluées, comme l'accès Internet à haut débit, le traitement d'images, la vidéo-conférence, la télécopie, la messagerie multimédia et le courrier électronique. Cette méthode d'accès repose sur des techniques évoluées, comme le codage et la modulation adaptatifs (AMC : Adaptive Modulation and Coding), les algorithmes d'ordonnancement (Scheduling Algorithm) et de demande de retransmission automatique hybride (H-ARQ : Hybrid Automatic Repeat reQuest). / Ces techniques permettent de satisfaire les contraintes de qualité de service qui caractérisent les futures applications à offrir aux usagers mobiles. Nos travaux de recherche présentent une étude approfondie sur la procédure à suivre pour évaluer la performance de la méthode d'accès radio 1xEV-DO. Ils proposent, à partir d'une série de simulations et d'expérimentations, une méthodologie d'évaluation de performance en vue de mieux présenter et d'analyser le débit binaire offert. Les résultats obtenus illustrent la capacité de la technologie 1xEV-DO offrir un débit binaire en fonction de celui requis par utilisateur, par service et par secteur. Ces résultats permettent également d'explorer les diverses stratégies à adopter en vue d'améliorer les performances d'une telle technologie.
2

Vérification des systèmes à pile au moyen des algèbres de Kleene

Mathieu, Vincent January 2006 (has links)
Tableau d'honneur de la Faculté des études supérieures et postdoctorales, 2006-2007 / La vérification de modèle est une technique permettant de faire un modèle représentant le comportement d'un système ou d'un programme, de décrire une propriété à vérifier sur ce dernier et de faire la vérification au moyen d'un algorithme. Dans ce mémoire, nous décrivons notre propre méthode de vérification de modèle basée sur les algèbres de Kleene. Plus particulièrement, nous utilisons une extension appelée omégaalgèbre avec domaine. Cette méthode algébrique permet de vérifier des propriétés pouvant être exprimées au moyen de la logique CTL* basée sur les états et les actions du modèle à vérifier. Nous représentons ces propriétés au moyen d'expressions sur une oméga-algèbre avec domaine. / Les modèles que nous pouvons vérifier sont les systèmes à pile, une classe de systèmes de transitions pouvant avoir un nombre infini d'états. Les systèmes à pile peuvent représenter le flot de contrôle des programmes avec appels de procédures, incluant les appels récursifs. Des matrices sur une oméga-algèbre avec domaine sont utilisées pour représenter ces systèmes de transitions. Notre méthode génère, à partir de la matrice représentant le système à pile à vérifier et de l'expression représentant la propriété à vérifier sur ce dernier, une équation qu'il faut démontrer de façon axiomatique afin de conclure que le système satisfait la propriété.
3

Digital cockpits and decision support systems : design of technics and tools to extract and process data from heterogeneous databases

Benssam, Ali 11 April 2018 (has links)
Tableau d'honneur de la Faculté des études supérieures et postdoctorales, 2006-2007 / Ce travail présente une nouvelle approche pour l'intégration des systèmes d'information. Cette approche permet d'intégrer des systèmes hétérogènes en matières de : modèles de données, systèmes d'opérations, réseaux utilisés, etc. pour fournir enfin aux décideurs ou/et utilisateurs une information à jour et consistante qui sera la base de décisions correctes et fiables dans le processus décisionnel. Principalement, notre méthodologie est une approche multi-couche: une couche intégration des différentes sources de données, une couche fournit un service de messagerie qui envoie l'information provenant des différentes sources aux différents clients intéressés dans cette information, et une autre consiste en une application client. La première couche vise à connecter les différentes bases de données en éliminant les différences spécifiques à chacune de ces dernières. La seconde, service de messagerie, permet d'envoyer l'information aux multiple utilisateurs dans un mode asynchrone, ce qui libère l'application client de rester couplée avec la source de données et en même temps garantit la délivrance de cette information à ses abonnés. Pour la couche "application client", elle est responsable de : l'affichage et la présentation de l'information reçue à partir de l'intergiciel basé sur le service de messagerie; de la mise à jour en temps réel de l'affichage en reflétant l'état présent des sources de données; ainsi que d'autres processus de control et d'optimisation. Notre intergiciel, proposé au sein de cette thèse, est basé sur un ensemble d'APIs standards (surtout celles provenant du monde J2EE) ce qui lui offre une large interopérabilité et facilité d'extension. / This work presents a new approach for integrating information Systems. This approach allows Connecting Systems that are heterogenous in terms of: data models, operating Systems, used networks, etc. It ultimately provides decision makers or/and users with up-to-date, consistent and well presented information which will be the basis of correct and reliable decisions in the decision making process. Primarily, our integration modus operandi is a multi-layer approach: an integration connection layer, a messaging service layer, and a client application layer. The first one aims at Connecting the various databases by eliminating the differences that are specific to each one. The second, messaging service, allows to push information incoming from the multiple sources to customers interested in this information in an asynchronous mode. It releases the customer application to remain coupled with the data source, and at the same time guarantees the delivery of this information to different subscribers. The third layer, client application, is responsible for: display and presentation of information received from the messaging layer; real-time updating of display to reflect the state of the data sources; and other control and optimization procedures. Our middleware, proposed within this work, is platform, OS, and DBMS independent. It is based on a set of standard APIs (especially those coming from J2EE world) which offers broad interoperability and provides easy extensibility.
4

Recherche d'information sémantique et extraction automatique d'ontologie du domaine

Morneau, Maxime 12 April 2018 (has links)
Il peut s'avérer ardu, même pour une organisation de petite taille, de se retrouver parmi des centaines, voir des milliers de documents électroniques. Souvent, les techniques employées par les moteurs de recherche dans Internet sont utilisées par les entreprises voulant faciliter la recherche d'information dans leur intranet. Ces techniques reposent sur des méthodes statistiques et ne permettent pas de traiter la sémantique contenue dans la requête de l'usager ainsi que dans les documents. Certaines approches ont été développées pour extraire cette sémantique et ainsi, mieux répondre à des requêtes faites par les usagers. Par contre, la plupart de ces techniques ont été conçues pour s'appliquer au Web en entier et non pas sur un domaine en particulier. Il pourrait être intéressant d'utiliser une ontologie pour représenter un domaine spécifique et ainsi, être capable de mieux répondre aux questions posées par un usager. Ce mémoire présente notre approche proposant l'utilisation du logiciel Text- To-Onto pour créer automatiquement une ontologie décrivant un domaine. Cette même ontologie est par la suite utilisée par le logiciel Sesei, qui est un filtre sémantique pour les moteurs de recherche conventionnels. Cette méthode permet ainsi d'améliorer la pertinence des documents envoyés à l'usager. / It can prove to be diffcult, even for a small size organization, to find information among hundreds, even thousands of electronic documents. Most often, the methods employed by search engines on the Internet are used by companies wanting to improve information retrieval on their intranet. These techniques rest on statistical methods and do not make it possible neither to evaluate the semantics contained in the user requests, nor in the documents. Certain methods were developed to extract this semantics and thus, to improve the answer given to requests. On the other hand, the majority of these techniques were conceived to be applied on the entire World Wide Web and not on a particular field of knowledge, like corporative data. It could be interesting to use domain specific ontologies in trying to link a specific query to related documents and thus, to be able to better answer these queries. This thesis presents our approach which proposes the use of the Text-To-Onto software to automatically create an ontology describing a particular field. Thereafter, this ontology is used by the Sesei software, which is a semantic filter for conventional search engines. This method makes it possible to improve the relevance of documents returned to the user.
5

Analyse, implémentation et évaluation de performance de la future méthode d'accès HSDPA

Hadjar, Omar Rachid 12 April 2018 (has links)
La technologie HSDPA (High Speed Downlink Packet Access) représente la première étape d’évolution de la méthode d’accès du réseau mobile de troisième génération UMTS (Universal Mobile Telecommmunications Service). Cette technologie permet d’obtenir des débits théoriques supérieurs à 10 Mbps sur le lien descendant et de supporter des services à valeur ajoutée, tels que l’accès Internet à haute vitesse, le téléchargement de fichiers audio et vidéo, la réception de programmes télévisés et la visiophonie. Ces améliorations sont rendues possibles grâce à une combinaison de propriétés qui sont à la base du HSDPA et qui consistent à adapter le codage et la modulation en fonction des conditions du canal radio (AMC : Adaptative Modulation and Coding), à effectuer des retransmissions rapides de paquets erronés (HARQ : Hybrid Automatic Repeat ReQuest) et à utiliser des méthodes d’ordonnancement intelligentes plus rapides. Même si l’introduction de ces nouvelles techniques contribue à une augmentation de la capacité du système, elle engendre toutefois une plus grande complexité dans l’évaluation de ses performances dans des conditions réelles. Dans ce contexte, nous proposons une implémentation et une évaluation de la méthode d’accès HSDPA qui prend en considération les spécifications techniques des Node B et des terminaux mobiles d’un système UMTS. Les résultats obtenus de cette implémentation, basés sur plusieurs scénarios utilisant des données géographiques réelles, montrent que le système réussit à satisfaire aux exigences des services multimédia. / High speed downlink packet access (HSDPA) is an add-on technology for W-CDMA that allows higher downlink data rates and greater base station capacity. With HSDPA, W-CDMA systems, which today are seemingly stuck at 384 kbps, will be able to shift gears and move ahead to so-called 3.5G performance with over 10 Mbps throughput on the downlink. The incorporation of HSDPA in Release 5 of the 3GPP W-CDMA specification is the most significant change on the RF side since Release 99. Advanced techniques such as adaptive modulation and coding (AMC) and hybrid automatic repeat request (HARQ) are used to modify the coding and physical layer parameters adaptively in response to the instantaneous channel quality, thus enabling gains in spectral efficiency and data rates. On the other hand, such improvements also bring a higher complexity degree in the evaluation of the radio subsystem performance. This evaluation is crucial for operators who are willing to provide value-added services with rich multimedia contents. This thesis aims at implementing and simulating a radio access network on a real geographic area using the HSDPA features. Results show that such features enable to satisfy the quality of service requirements needed to support the new data-oriented services.
6

Détection des variations d'attaques à l'aide d'une logique temporelle

Lespérance, Pierre-Luc 12 April 2018 (has links)
La principale contribution de ce travail est de proposer une nouvelle logique, inspirée de la logique temporelle linéaire, qui permet d'améliorer les techniques standard de détection d'intrusions utilisant l'approche par scénarios, avec la possibilité de détecter des variantes d'attaques connues. La logique suggées pourrait trouver une trace de paquets qui correspondent, même partiellement avec une distance calculée, avec la formule qui décrit l'attaque. La deuxième partie consistera à décrire son implémentation et de montrer la contribution pour augmenter la performance et l'expressivité des règles des systèmes de détection d'intrusions et plus précisément, du système Snort.
7

Colliers et bracelets dont les perles importent peu

Gagnon, Jean-Philippe 12 April 2018 (has links)
Dans de multiples domaines, des structures qui semblent à première vue très simples sont très mal comprises. Un exemple qui nous vient vite à l'esprit, c'est la structure de l'ADN qui n'est qu'une suite d'un alphabet de quatre bases azotées, mais dont la combinaison cache encore de nombreux mystères. Dans ce mémoire nous nous sommes attardés à la rotation, la réflexion et à la permutation des lettres d'un mot. Si l'on ne prend que la rotation, l'ensemble de tous les mots que l'on peut fabriquer par rotation des lettres d'un mot donné est appelé collier. Cette notion mathématique bien connu revient, dans le concret, à écrire notre mot donné sur les perles d'un collier et à constater que le fait de tourner le collier autour de notre cou ne change pas l'objet lui-même. En ajoutant la réflexion à la rotation, on obtient les bracelets. Toutefois, lorsque l'on combine la permutation des lettres de l'alphabet aux bracelets ou aux colliers, on obtient des objets beaucoup moins connus et moins bien compris. Au cours de ce mémoire, nous nous sommes donc intéressés aux mots dont la permutation des lettres est combinée à d'autres actions. Deux principaux problèmes ont occupés nos recherches: le comptage de ces objets ainsi que l'énumération de ceux-ci. Ces deux avenues ont été fructueuses et nous ont donné de nouveaux résultats. Nous avons de plus trouvé divers domaines où ces objets semblent être un modèle pertinent et où nos résultats pourraient s'appliquer. / Simple structures seem to emerge from many different sciences. However, we still have a limited undertanding of those structures. A good exemple is DNA structure which is simply a series of nitrogenous bases taken from a four letter alphabet. Unfortunately, even if its structure is very simple, DNA still keeps many secrets to the scientific community. A better understanding of basic structures seems to be the basis to a better understanding of our environment. This is why we have focused on words under the action of rotation, reflexion and permutation of letters. Words under the action of rotation are called necklaces and are well studied. If the reflection is added to necklaces, bracelets are obtained. However, if we combine alphabet permutation with rotation and/or reflection, less understood objects are obtained. We focused on two major problems: counting objets and generating them. In both directions we have found interesting new results. We also found some fields in which our results could contribute.
8

A multi-agent system for on-the-fly web map generation and spatial conflict resolution

Jabeur, Nafaâ January 2006 (has links)
Résumé Internet est devenu un moyen de diffusion de l’information géographique par excellence. Il offre de plus en plus de services cartographiques accessibles par des milliers d’internautes à travers le monde. Cependant, la qualité de ces services doit être améliorée, principalement en matière de personnalisation. A cette fin, il est important que la carte générée corresponde autant que possible aux besoins, aux préférences et au contexte de l’utilisateur. Ce but peut être atteint en appliquant les transformations appropriées, en temps réel, aux objets de l’espace à chaque cycle de génération de la carte. L’un des défis majeurs de la génération d’une carte à la volée est la résolution des conflits spatiaux qui apparaissent entre les objets, essentiellement à cause de l’espace réduit des écrans d’affichage. Dans cette thèse, nous proposons une nouvelle approche basée sur la mise en œuvre d’un système multiagent pour la génération à la volée des cartes et la résolution des conflits spatiaux. Cette approche est basée sur l’utilisation de la représentation multiple et la généralisation cartographique. Elle résout les conflits spatiaux et génère les cartes demandées selon une stratégie innovatrice : la génération progressive des cartes par couches d’intérêt. Chaque couche d’intérêt contient tous les objets ayant le même degré d’importance pour l’utilisateur. Ce contenu est déterminé à la volée au début du processus de génération de la carte demandée. Notre approche multiagent génère et transfère cette carte suivant un mode parallèle. En effet, une fois une couche d’intérêt générée, elle est transmise à l’utilisateur. Dans le but de résoudre les conflits spatiaux, et par la même occasion générer la carte demandée, nous affectons un agent logiciel à chaque objet de l’espace. Les agents entrent ensuite en compétition pour l’occupation de l’espace disponible. Cette compétition est basée sur un ensemble de priorités qui correspondent aux différents degrés d’importance des objets pour l’utilisateur. Durant la résolution des conflits, les agents prennent en considération les besoins et les préférences de l’utilisateur afin d’améliorer la personnalisation de la carte. Ils améliorent la lisibilité des objets importants et utilisent des symboles qui pourraient aider l’utilisateur à mieux comprendre l’espace géographique. Le processus de génération de la carte peut être interrompu en tout temps par l’utilisateur lorsque les données déjà transmises répondent à ses besoins. Dans ce cas, son temps d’attente est réduit, étant donné qu’il n’a pas à attendre la génération du reste de la carte. Afin d’illustrer notre approche, nous l’appliquons au contexte de la cartographie sur le web ainsi qu’au contexte de la cartographie mobile. Dans ces deux contextes, nous catégorisons nos données, qui concernent la ville de Québec, en quatre couches d’intérêt contenant les objets explicitement demandés par l’utilisateur, les objets repères, le réseau routier et les objets ordinaires qui n’ont aucune importance particulière pour l’utilisateur. Notre système multiagent vise à résoudre certains problèmes liés à la génération à la volée des cartes web. Ces problèmes sont les suivants : 1. Comment adapter le contenu des cartes, à la volée, aux besoins des utilisateurs ? 2. Comment résoudre les conflits spatiaux de manière à améliorer la lisibilité de la carte tout en prenant en considération les besoins de l’utilisateur ? 3. Comment accélérer la génération et le transfert des données aux utilisateurs ? Les principales contributions de cette thèse sont : 1. La résolution des conflits spatiaux en utilisant les systèmes multiagent, la généralisation cartographique et la représentation multiple. 2. La génération des cartes dans un contexte web et dans un contexte mobile, à la volée, en utilisant les systèmes multiagent, la généralisation cartographique et la représentation multiple. 3. L’adaptation des contenus des cartes, en temps réel, aux besoins de l’utilisateur à la source (durant la première génération de la carte). 4. Une nouvelle modélisation de l’espace géographique basée sur une architecture multi-couches du système multiagent. 5. Une approche de génération progressive des cartes basée sur les couches d’intérêt. 6. La génération et le transfert, en parallèle, des cartes aux utilisateurs, dans les contextes web et mobile. / Abstract Internet is a fast growing medium to get and disseminate geospatial information. It provides more and more web mapping services accessible by thousands of users worldwide. However, the quality of these services needs to be improved, especially in term of personalization. In order to increase map flexibility, it is important that the map corresponds as much as possible to the user’s needs, preferences and context. This may be possible by applying the suitable transformations, in real-time, to spatial objects at each map generation cycle. An underlying challenge of such on-the-fly map generation is to solve spatial conflicts that may appear between objects especially due to lack of space on display screens. In this dissertation, we propose a multiagent-based approach to address the problems of on-the-fly web map generation and spatial conflict resolution. The approach is based upon the use of multiple representation and cartographic generalization. It solves conflicts and generates maps according to our innovative progressive map generation by layers of interest approach. A layer of interest contains objects that have the same importance to the user. This content, which depends on the user’s needs and the map’s context of use, is determined on-the-fly. Our multiagent-based approach generates and transfers data of the required map in parallel. As soon as a given layer of interest is generated, it is transmitted to the user. In order to generate a given map and solve spatial conflicts, we assign a software agent to every spatial object. Then, the agents compete for space occupation. This competition is driven by a set of priorities corresponding to the importance of objects for the user. During processing, agents take into account users’ needs and preferences in order to improve the personalization of the final map. They emphasize important objects by improving their legibility and using symbols in order to help the user to better understand the geographic space. Since the user can stop the map generation process whenever he finds the required information from the amount of data already transferred, his waiting delays are reduced. In order to illustrate our approach, we apply it to the context of tourist web and mobile mapping applications. In these contexts, we propose to categorize data into four layers of interest containing: explicitly required objects, landmark objects, road network and ordinary objects which do not have any specific importance for the user. In this dissertation, our multiagent system aims at solving the following problems related to on-the-fly web mapping applications: 1. How can we adapt the contents of maps to users’ needs on-the-fly? 2. How can we solve spatial conflicts in order to improve the legibility of maps while taking into account users’ needs? 3. How can we speed up data generation and transfer to users? The main contributions of this thesis are: 1. The resolution of spatial conflicts using multiagent systems, cartographic generalization and multiple representation. 2. The generation of web and mobile maps, on-the-fly, using multiagent systems, cartographic generalization and multiple representation. 3. The real-time adaptation of maps’ contents to users’ needs at the source (during the first generation of the map). 4. A new modeling of the geographic space based upon a multi-layers multiagent system architecture. 5. A progressive map generation approach by layers of interest. 6. The generation and transfer of web and mobile maps at the same time to users.
9

RTL-Check : a practical static analysis framework to verify memory safety and more

Lacroix, Patrice January 2006 (has links)
Puisque les ordinateurs sont omniprésents dans notre société et que, de plus en plus, nous dépendons de programmes pour accomplir nos activités de tous les jours, les bogues peuvent parfois avoir des conséquences cruciales. Une grande proportion des programmes existants sont écrits en C ou en C++ et la plupart des erreurs avec ces langages sont dues à l’absence de sûreté d’accès à la mémoire. Notre objectif à long terme est d’être en mesure de vérifier si un programme C ou C++ accède correctement à la mémoire malgré les défauts de ces langages. À cette fin, nous avons créé un cadre de développement d’analyses statiques que nous présentons dans ce mémoire. Il permet de construire des analyses à partir de petits composants réutilisables qui sont liés automatiquement par métaprogrammation. Il incorpore également le modèle de conception (design pattern) du visiteur et des algorithmes utiles pour faire de l’analyse statique. De plus, il fournit un modèle objet pour le RTL, la représentation intermédiaire de bas niveau pour tous les langages supportés par GCC. Ceci implique qu’il est possible de concevoir des analyses indépendantes des langages de programmation. Nous décrivons également les modules que comporte l’analyse statique que nous avons développée à l’aide de notre cadre d’analyse et qui vise à vérifier si un programme respecte les règles d’accès à la mémoire. Cette analyse n’est pas complète, mais elle est conçue pour être améliorée facilement. Autant le cadre d’analyse que les modules d’analyse des accès à la mémoire sont distribués dans RTL-Check, un logiciel libre. / Since computers are ubiquitous in our society and we depend more and more on programs to accomplish our everyday activities, bugs can sometimes have serious consequences. A large proportion of existing programs are written in C or C++ and the main source of errors with these programming languages is the absence of memory safety. Our long term goal is to be able to verify if a C or C++ program accesses memory correctly in spite of the deficiencies of these languages. To that end, we have created a static analysis framework which we present in this thesis. It allows building analyses from small reusable components that are automatically bound together by metaprogramming. It also incorporates the visitor design pattern and algorithms that are useful for the development of static analyses. Moreover, it provides an object model for RTL, the low-level intermediate representation for all languages supported by GCC. This implies that it is possible to design analyses that are independent of programming languages. We also describe the modules that comprise the static analysis we have developed using our framework and which aims to verify if a program is memory-safe. This analysis is not yet complete, but it is designed to be easily improved. Both our framework and our memory access analysis modules are distributed in RTL-Check, an open-source project.
10

La géosimulation orientée agent : un support pour la planification dans le monde réel

Sahli, Nabil 11 April 2018 (has links)
La planification devient complexe quand il s’agit de gérer des situations incertaines. Prédire de façon précise est une tâche fastidieuse pour les planificateurs humains. L’approche Simulation-Based Planning consiste à associer la planification à la simulation. Chaque plan généré est simulé afin d’être testé et évalué. Le plan le plus approprié est alors retenu. Cependant, le problème est encore plus complexe lorsque viennent s’ajouter des contraintes spatiales. Par exemple, lors d’un feu de forêt, des bulldozers doivent construire une ligne d’arrêt pour arrêter la propagation des feux. Ils doivent alors tenir compte non seulement de l’avancée des feux mais aussi des caractéristiques du terrain afin de pouvoir avancer plus facilement. Nous proposons une approche de géosimulation basée sur les agents et qui a pour but d’assister la planification dans un espace réel, à large échelle géographique et surtout à forte composante spatiale. Un feu de forêt est un problème typique nécessitant une planification dans un monde réel incertain et soumis à de fortes contraintes spatiales. Nous illustrons donc notre approche (nommée ENCASMA) sur le problème des feux de forêts. L’approche consiste à établir un parallélisme entre l’Environnement Réel ER (p.ex. une forêt incendiée) et un Environnement de Simulation ES (p.ex. une reproduction virtuelle de la forêt incendiée). Pour garantir un niveau acceptable de réalisme, les données spatiales utilisées dans l’ES doivent absolument provenir d’un SIG (Système d’information Géographique). Les planificateurs réels comme les pompiers ou les bulldozers sont simulés par des agents logiciels qui raisonnent sur l’espace modélisé par l’ES. Pour une meilleure sensibilité spatiale (pour tenir compte de toutes les contraintes du terrain), les agents logiciels sont dotés de capacités avancées telles que la perception. En utilisant une approche par géosimulation multiagent, nous pouvons générer une simulation réaliste du plan à exécuter. Les décideurs humains peuvent visualiser les conséquences probables de l’exécution de ce plan. Ils peuvent ainsi évaluer le plan et éventuellement l’ajuster avant son exécution effective (sur le terrain). Quand le plan est en cours d’exécution, et afin de garantir la cohérence des données entre l’ER et l’ES, nous gardons trace sur l’ES des positions (sur l’ER) des planificateurs réels (en utilisant les technologies du positionnement géoréférencé). Nous relançons la planification du reste du plan à partir de la position courante de planificateur réel, et ce de façon périodique. Ceci est fait dans le but d’anticiper tout problème qui pourrait survenir à cause de l’aspect dynamique de l’ER. Nous améliorons ainsi le processus classique de l’approche DCP (Distributed Continual Planning). Enfin, les agents de l’ES doivent replanifier aussitôt qu’un événement imprévu est rapporté. Étant donné que les plans générés dans le cas étudié (feux de forêts) sont essentiellement des chemins, nous proposons également une approche basée sur la géosimulation orientée agent pour résoudre des problèmes particuliers de Pathfinding (recherche de chemin). De plus, notre approche souligne les avantages qu’apporte la géosimulation orientée agent à la collaboration entre agents humains et agents logiciels. Plus précisément, elle démontre : • Comment la cognition spatiale des agents logiciels sensibles à l’espace peut être complémentaire avec la cognition spatiale des planificateurs humains. • Comment la géosimulation orientée agent peut complémenter les capacités humaines de planification lors de la résolution de problèmes complexes. Finalement, pour appliquer notre approche au cas des feux de forêts, nous avons utilisé MAGS comme plate-forme de géosimulation et Prometheus comme simulateur du feu. Les principales contributions de cette thèse sont : 1. Une architecture (ENCASMA) originale pour la conception et l’implémentation d’applications (typiquement des applications de lutte contre les désastres naturels) dans un espace géographique réel à grande échelle et dynamique. 2. Une approche basée sur les agents logiciels pour des problèmes de Pathfinding (recherche de chemin) particuliers (dans un environnement réel et à forte composante spatiale, soumis à des contraintes qualitatives). 3. Une amélioration de l’approche de planification DCP (plus particulièrement le processus de continuité) afin de remédier à certaines limites de la DCP classique. 4. Une solution pratique pour un problème réel et complexe : la lutte contre les feux de forêts. Cette nouvelle solution permet aux experts du domaine de mieux planifier d’avance les actions de lutte et aussi de surveiller l’exécution du plan en temps réel. / Planning becomes complex when addressing uncertain situations. Accurate predictions remain a hard task for human planners. The Simulation-Based Planning approach consists in associating planning and simulation. Each generated plan is simulated in order to be tested and evaluated. The most appropriate plan is kept. The problem is even more complex when considering spatial constraints. For example, when fighting a wildfire, dozers build a firebreak to stop fire propagation. They have to take into account not only the fire spread but also the terrain characteristics in order to move easily. We propose an agent-based geosimulation approach to assist such planners with planning under strong spatial constraints in a real large-scale space. Forest fire fighting is a typical problem involving planning within an uncertain real world under strong spatial constraints. We use this case to illustrate our approach (ENCASM). The approach consists in drawing a parallel between the Real Environment RE (i.e. a forest in fire) and the Simulated Environment SE (i.e. a virtual reproduction of the forest). Spatial data within the SE should absolutely come from a GIS (Geographic Information System) for more realism. Real planners such as firefighters or dozers are simulated using software agents which reason about the space of the SE. To achieve a sufficient spatial awareness (taking into account all terrain’s features), agents have advanced capabilities such as perception. Using a multiagent geosimulation approach, we can generate a realistic simulation of the plan so that human decision makers can visualize the probable consequences of its execution. They can thus evaluate the plan and adjust it before it can effectively be executed. When the plan is in progress and in order to maintain coherence between RE and SE, we keep track in the SE of the real planners’ positions in the RE (using georeferencing technologies). We periodically replan the rest of the plan starting from the current position of the real planner. This is done in order to anticipate any problem which could occur due to the dynamism of the RE. We thus enhance the process of the classical Distributed Continual Planning DCP. Finally, the agents must replan as soon as an unexpected event is reported by planners within the RE. Since plans in the studied case (forest fires) are mainly paths, we propose a new approach based on agent geosimulation to solve particular Pathfinding problems. Besides, our approach highlights the benefits of the agent-based geo-simulation to the collaboration of both humans and agents. It thus shows: • How spatial cognitions of both spatially aware agents and human planners can be complementary. • How agent-based geo-simulation can complement human planning skills when addressing complex problems. Finally, when applying our approach on firefighting, we use MAGS as a simulation platform and Prometheus as a fire simulator. The main contributions of this thesis are: 1. An original architecture (ENCASMA) for the design and the implementation of applications (typically, natural disasters applications) in real, dynamic and large-scale geographic spaces. 2. An agent-based approach for particular Pathfinding problems (within real and spatially constrained environments and under qualitative constraints). 3. An enhancement of the DCP (particularly, the continual process) approach in order to overcome some limits of the classical DCP. 4. A practical solution for a real and complex problem: wildfires fighting. This new solution aims to assist experts when planning firefighting actions and monitoring the execution of these plans.

Page generated in 0.0231 seconds