• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2446
  • 1617
  • 1255
  • 21
  • 6
  • 6
  • 2
  • 2
  • 1
  • Tagged with
  • 5648
  • 3140
  • 3002
  • 1276
  • 692
  • 690
  • 662
  • 645
  • 620
  • 597
  • 486
  • 476
  • 457
  • 453
  • 438
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

Implantation d'une méthode agile de développement logiciel en entreprise. Une culture accueillant le changement

Tremblay, Richard 11 1900 (has links) (PDF)
Depuis quelques années, les méthodes agiles ont émergées et semblent prometteuses. Ce mémoire relate les travaux réalisés dans le but de procéder à l’implantation d’une méthode agile de développement en entreprise. Afin de distinguer les approches agiles, nous débutons par un rappel des approches traditionnelles. Nous établissons quelles sont les caractéristiques de ces approches, les différents modèles et leurs limitations. Nous analysons ensuite l’offre des approches agiles. Nous définissons en quoi consiste l’agilité et quelles sont les caractéristiques communes de ces approches. Nous présentons quelques méthodes, plus particulièrement : Extreme Programming, Scrum et Crystal Clear. Finalement, nous relatons l’expérience d’une implantation en entreprise afin de vérifier sa facilité d’application. Nous concluons que ces approches adaptatives sont plus efficaces que les approches prédictives lorsqu’elles sont utilisées dans un contexte propice. / In recent years, agile methods have emerged and appear promising. This memoirs describes the work carried out in order to proceed with the implementation of an agile method development in business. To distinguish the agile approaches, we begin with a recap of traditional approaches. We establish what are the characteristics of these approaches, the various models and their limitations. We then analyze the proposal of agile approaches. We define what constitutes agility and what are the common characteristics of these approaches. We present some methods, in particular: Extreme Programming, Scrum and Crystal Clear. Finally, we talk about the experience of an establishment of the agile method into a business in order to verify its ease of implementation. We conclude that these adaptive approaches are more effective then predictive approaches when used in the right context.
82

Techniques for the allocation of resources under uncertainty

Plamondon, Pierrick 12 1900 (has links) (PDF)
L’allocation de ressources est un problème omniprésent qui survient dès que des ressources limitées doivent être distribuées parmi de multiples agents autonomes (e.g., personnes, compagnies, robots, etc). Les approches standard pour déterminer l’allocation optimale souffrent généralement d’une très grande complexité de calcul. Le but de cette thèse est de proposer des algorithmes rapides et efficaces pour allouer des ressources consommables et non consommables à des agents autonomes dont les préférences sur ces ressources sont induites par un processus stochastique. Afin d’y parvenir, nous avons développé de nouveaux modèles pour des problèmes de planifications, basés sur le cadre des Processus Décisionnels de Markov (MDPs), où l’espace d’actions possibles est explicitement paramétrisés par les ressources disponibles. Muni de ce cadre, nous avons développé des algorithmes basés sur la programmation dynamique et la recherche heuristique en temps-réel afin de générer des allocations de ressources pour des agents qui agissent dans un environnement stochastique. En particulier, nous avons utilisé la propriété acyclique des créations de tâches pour décomposer le problème d’allocation de ressources. Nous avons aussi proposé une stratégie de décomposition approximative, où les agents considèrent des interactions positives et négatives ainsi que les actions simultanées entre les agents gérants les ressources. Cependant, la majeure contribution de cette thèse est l’adoption de la recherche heuristique en temps-réel pour l’allocation de ressources. À cet effet, nous avons développé une approche basée sur la Q-décomposition munie de bornes strictes afin de diminuer drastiquement le temps de planification pour formuler une politique optimale. Ces bornes strictes nous ont permis d’élaguer l’espace d’actions pour les agents. Nous montrons analytiquement et empiriquement que les approches proposées mènent à des diminutions de la complexité de calcul par rapport à des approches de planification standard. Finalement, nous avons testé la recherche heuristique en temps-réel dans le simulateur SADM, un simulateur d’allocation de ressource pour une frégate. / Resource allocation is an ubiquitous problem that arises whenever limited resources have to be distributed among multiple autonomous entities (e.g., people, companies, robots, etc). The standard approaches to determine the optimal resource allocation are computationally prohibitive. The goal of this thesis is to propose computationally efficient algorithms for allocating consumable and non-consumable resources among autonomous agents whose preferences for these resources are induced by a stochastic process. Towards this end, we have developed new models of planning problems, based on the framework of Markov Decision Processes (MDPs), where the action sets are explicitly parameterized by the available resources. Given these models, we have designed algorithms based on dynamic programming and real-time heuristic search to formulating thus allocations of resources for agents evolving in stochastic environments. In particular, we have used the acyclic property of task creation to decompose the problem of resource allocation. We have also proposed an approximative decomposition strategy, where the agents consider positive and negative interactions as well as simultaneous actions among the agents managing the resources. However, the main contribution of this thesis is the adoption of stochastic real-time heuristic search for a resource allocation. To this end, we have developed an approach based on distributed Q-values with tight bounds to diminish drastically the planning time to formulate the optimal policy. These tight bounds enable to prune the action space for the agents. We show analytically and empirically that our proposed approaches lead to drastic (in many cases, exponential) improvements in computational efficiency over standard planning methods. Finally, we have tested real-time heuristic search in the SADM simulator, a simulator for the resource allocation of a platform.
83

Interpretation Functions-Based Approach to Verify Secrecy of Cryptographic Protocols

Houmani, Hanane 10 1900 (has links) (PDF)
No description available.
84

Mécanisme de contrôle du flot d'information dans un programme : approche par typage trivalué

Kanyabwero, Erwanne Paméla 01 1900 (has links) (PDF)
Ce mémoire présente un mécanisme d’application de politiques de sécurité grâce à une analyse de types trivaluée sur un langage impératif. Notre analyse a pour but de réduire les faux positifs générés par l’analyse statique, tout en préparant les programmes analysés à être instrumentés. Les faux positifs se produisent dans l’analyse de systèmes informatiques à temps réel quand il manque de l’information au moment de la compilation, par exemple un nom de fichier, et par conséquent, son niveau de sécurité. Notre approche visant à répondre à la question « Y a-t’il violation de la propriété de non-interférence dans le programme ? », l’idée clé est de distinguer les réponses négatives des réponses incertaines. Au lieu de rejeter le programme systématiquement en cas d’incertitude, nous typons les instructions avec un type additionnel, unknown, indiquant l’incertitude. Notre travail est fait en préparation à un mécanisme d’application hybride, combinant l’analyse statique par l’analyse de types et l’analyse dynamique par l’instrumentation de code. Durant l’étape d’analyse statique, les réponses positives et négatives sont traitées de manière standard, tandis que les réponses incertaines sont clairement annotées du type incertain, préparant ainsi pour un éventuel passage à la deuxième étape : l’instrumentation. Une preuve que notre système de types est cohérent est donnée, ceci en montrant qu’il satisfait la non-interférence. Les programmes interagissent à travers les canaux de communication. Notre contribution réside dans la manipulation de trois types de sécurité, mais aussi dans le traitement des variables et canaux de communication de manière particulière. Les niveaux de sécurité sont associés aux canaux plutôt qu’aux variables dont les niveaux de sécurité varient selon l’information qu’elles contiennent.
85

Évaluation de performance de la méthode d'accès radio 1xEV-DO

Mekni, Mehdi 03 1900 (has links) (PDF)
La technologie d’accès radio 1xEV-DO, également connue sous le nom d’IS-856, fait partie des alternatives potentielles d’évolution pour les systèmes CDMA2000 (1x). Elle est conçue pour améliorer le support des services de données, et plus précisément, pour augmenter la capacité du débit binaire exigé par les applications évoluées, comme l’accès Internet à haut débit, le traitement d’images, la vidéo-conférence, la télécopie, la messagerie multimédia et le courrier électronique. Cette méthode d’accès repose sur des techniques évoluées, comme le codage et la modulation adaptatifs (AMC : Adaptive Modulation and Coding), les algorithmes d’ordonnancement (Scheduling Algorithm) et de demande de retransmission automatique hybride (H-ARQ : Hybrid Automatic Repeat reQuest). Ces techniques permettent de satisfaire les contraintes de qualité de service qui caractérisent les futures applications à offrir aux usagers mobiles. Nos travaux de recherche présentent une étude approfondie sur la procédure à suivre pour évaluer la performance de la méthode d’accès radio 1xEV-DO. Ils proposent, à partir d’une série de simulations et d’expérimentations, une méthodologie d’évaluation de performance en vue de mieux présenter et d’analyser le débit binaire offert. Les résultats obtenus illustrent la capacité de la technologie 1xEV-DO offrir un débit binaire en fonction de celui requis par utilisateur, par service et par secteur. Ces résultats permettent également d’explorer les diverses stratégies à adopter en vue d’améliorer les performances d’une telle technologie.
86

Détection des variations d'attaques à l'aide d'une logique temporelle

Lespérance, Pierre-Luc 03 1900 (has links) (PDF)
La principale contribution de ce travail est de proposer une nouvelle logique, inspirée de la logique temporelle linéaire, qui permet d'améliorer les techniques standard de détection d'intrusions utilisant l'approche par scénarios, avec la possibilité de détecter des variantes d'attaques connues. La logique suggées pourrait trouver une trace de paquets qui correspondent, même partiellement avec une distance calculée, avec la formule qui décrit l'attaque. La deuxième partie consistera à décrire son implémentation et de montrer la contribution pour augmenter la performance et l'expressivité des règles des systèmes de détection d'intrusions et plus précisément, du système Snort.
87

Problèmes d'homomorphisme à largeur de chemin bornée

Bédard, Catherine 04 1900 (has links) (PDF)
Un homomorphisme est une fonction entre deux structures, par exemple des graphes, qui respecte certaines contraintes. Dans ce mémoire, on étudie la complexité des problèmes d'homomorphisme, c'est-à-dire des problèmes où l'on doit décider s'il existe une telle fonction entre deux structures. On présentera des propriétés sur ces structures qui permettent de déterminer cette complexité. On s'intéressera particulièrement aux problèmes d'homomorphisme qui appartiennent à la classe de complexité NL, une classe contenant des problèmes dont la résolution par un algorithme non déterministe nécéssite peu d'espace mémoire.
88

Détection du code malicieux : système de type à effets et instrumentation du code

Khoury, Raphaël 12 1900 (has links) (PDF)
Ce mémoire traite en premier lieu des avantages et des désavantages des différentes approches visant à assurer la sûreté et la sécurité des logiciels. En second lieu, il présente une nouvelle approche pour combiner l'analyse statique et l'analyse dynamique afin de produire une architecture de sécurité plus puissante. Les premiers chapitres du mémoire comportent une revue analytique des différentes approches statiques, dynamiques et hybrides qui peuvent être utilisées afin de sécuriser le code potentiellement malicieux. L'exposé identifie alors les avantages et les inconvénients de chaque approche ainsi que le champ des politiques de sécurité dans lesquels on peut l'appliquer. Le dernier chapitre traite de la possibilité de combiner l'analyse statique et l'analyse dynamique par une nouvelle approche hybride. Cette approche consiste à instrumenter le code seulement là où c'est nécessaire pour assurer satisfaire une politique de sécurité définie par l'usager et exprimée en un ensemble de propriétés exprimées μ-calcul modal. Cette instrumentation est guidée par une analyse statique effectuée à priori et basée sur un système de type à effets. Les effets représentent les accès aux ressources protégées du système. / The purpose of this thesis is twofold. In the first place it presents a comparative study of the advantages and drawbacks of several approaches to insure software safety and security. It then focuses more particularly on combining static analyses and dynamic monitoring in order to produce a more powerful security architecture. The first chapters of the thesis present an analytical review of the various static, dynamic and hybrid approaches that can be used to secure a potentially malicious code. The advantages and drawbacks of each approach are thereby analyzed and the field of security properties that can be enforced by using it are identified. The thesis then focuses on the possibility of combining static and dynamic analysis through a new hybrid approach. This approach consists in a code instrumentation, that only alters those parts of a program where it is necessary to do so to insure the respect of a user-defined security policy expressed in a set of modal μ-calculus properties. this instrumentation is guided by a static analysis based on a type and effect system. The effects represent the accesses made to pretested system ressources.
89

Developping 2D and 3D multiagent geosimulation, a method and its application: the case of shopping behavior geosimulation in Square One Mall (Toronto)

Ali, Walid 01 1900 (has links) (PDF)
In this thesis, we propose a generic method to develop 2D and 3D multiagent geosimulation of complex behaviors (human behaviors) in geographic environments. Our work aims at solving some problems in the field of computer simulation in general and the field of multiagent simulation. These problems are are: - The absence of methods to develop 2D-3D multiagent simulation of phenomena in geographic environments. - The absence of gathering and analysis techniques that can be used to collect and analyze spatial and non-spatial data to feed the geosimulation models (input data) and to analyze data generated by geosimulations (output data). - The absence of a ‘realistic’ and ‘useful’ geosimulation prototype of customer’s shopping behavior in a mall. The main idea of our work is to create a generic method to develop 2D and 3D multiagent geosimulations of phenomena in geographic environments. This method contains ten steps, which are summarized as follows: The first three steps of the method aim to (1) define the geosimulation users’ needs, (2) identify the characteristics of the phenomenon to be simulated, as well as its environment, and (3) create the geosimulation models using the multiagent paradigm. The fourth step aims to select the simulation tool/environment/language that is used to develop the geosimulation. In step five, we collect the data which feeds the geosimulation models. In this step, we analyze the collected information in order to define some patterns of the behaviors of the phenomenon to be simulated. In the sixth step, we develop the geosimulation prototype, on the selected simulation platform, using the collected data. In step seven, we collect information about the course of the simulation, once again using the multiagent paradigm. In this step, we deal with the non-spatial and spatial data, generated by the simulation using several analysis techniques: Classical or traditional analysis techniques, our own analysis technique/tool, and the OLAP (On Line Analytical Processing) and SOLAP (Spatial On Line Analytical Processing) technique. In order to ensure the correctness of the simulation models, as well as to enhance the confidence of the simulation users, we need to verify and validate the simulation models. The verification and validation are the purpose of the eighth step of our method. In the ninth step, we test and document the simulation, while in the last step users can use the multiagent geosimulator in order to make efficient spatial decisions about the phenomenon to be simulated or about the configuration of the simulated environment. The main contributions of this thesis are: - A new method to develop 2D-3D multiagent geosimulations of complex behaviors (human behaviors) in geographic environments. - Some models dealing with the shopping behavior in a mall: an initial version of the shopping behavior model based upon a large literature review, an initial version of the multiagent model which is independent of the tool used to execute the simulation, and an agent-based model created according to the selected platform used to develop the geosimulation. All these models are related to the individual shoppers and to the simulated environment representing the mall. - An illustration of the method using the shopping behavior in a mall as a case study and the Square One mall in Toronto as a case test. This gave birth to a ‘realistic’ and ‘useful’ geosimulation prototype called Mall_MAGS. - A new survey-based technique to gather spatial and non-spatial data to feed the geosimulation models. - A tool to digitalize the spatial and non-spatial gathered data. - A new agent-based technique to collect output data from the geosimulation prototype. - A new analysis technique and tool to analyze spatial and non-spatial data generated by the geosimulation. - A coupling of the OLAP (On Line Analytical Processing) and SOLAP (Spatial On Line Analytical Processing) analysis techniques with the shopping behavior geosimulation prototype in order to explore and analyze the geosimulation outputs. / Dans cette thèse, nous proposons une méthode générique de développement d‘applications de géosimulation, en 2D et 3D, de divers phénomènes ou comportements complexes (exp. comportements humains) dans des environnements géographiques. Notre travail vise à résoudre quelques problèmes dans le domaine de la simulation informatique et, plus particulièrement, dans le domaine de la simulation multiagent. Les principaux problèmes que nous visons à résoudre dans cette thèse sont: - Absence de méthodes génériques de développement de simulations multiagent de phénomènes ou comportements dans des environnements géographiques. - Manque de techniques de collecte et d’analyse des données spatiales et non-spatiales : (1) données en entrée de la géosimulation multiagent (qui sont utilisées pour alimenter la simulation) ou (2) données en sortie de la géosimulation (qui sont générées par cette simulation). - Absence d’un prototype de géosimulation qui peut être, à la fois, ‘réaliste’ et ‘utile’ pour simuler le comportement du magasinage des êtres humains dans un environnement georéférencé représentant un centre commercial. L’idée principale de notre thèse consiste en: (1) la création d’une méthode générique de développement de géosimulations multiagents, en 2D et 3D, des phénomènes complexes (impliquant par exemple des êtres humains) dans des environnements géographiques et (2) l’application de cette méthode en utilisant le comportement de magasinage dans un centre commercial comme cas d’illustration. Cette méthode contient dix étapes qui sont résumées comme suit : Les trois premières étapes ont pour objectifs de (1) définir les besoins des utilisateurs finaux de la géosimulation, (2) d’identifier les caractéristiques du phénomène à simuler ainsi que celles de son environnement, et (3) de créer un modèle à base d’agents représentent le phénomène à simuler ainsi que son environnement. La quatrième étape vise à sélectionner l’outil de simulation qui va être utilisé pour exécuter les modèles de simulation. Dans la cinquième étape, nous collectons les données spatiales et non-spatiales qui doivent servir à alimenter les modèles de géosimulation. Dans cette étape nous effectuons quelques analyses des données collectées afin de déterminer quelques patrons de comportement du phénomène à simuler. Dans la sixième étape, nous développons le prototype de géosimulation en exécutant les modèles de géosimulation dans la plateforme sélectionnée tout en utilisant les données qui ont été collectées et analysées. Dans la septième étape, nous utilisons une autre fois la technologie multiagent afin de collecter des données spatiales et non-spatiales en sortie de la géosimulation. Ces données contiennent des informations pertinentes concernant le déroulement de la géosimulation. Dans cette étape nous utilisons diverses techniques d’analyse de données spatiales et non-spatiales afin d’analyser ces données. Dans l’illustration de notre méthode nous avons proposé l’utilisation de techniques d’analyse suivantes: techniques/outils statistiques et mathématiques traditionnelles (ou classiques), notre propre technique/outil et d’analyse des données spatiales et non-spatiales, les techniques d’analyse OLAP (On Line Analytical Processing) et SOLAP (Spatial On Line Analytical Processing). Afin d’assurer la fiabilité des modèles de simulation, nous proposons dans notre méthode une huitième étape qui vise à vérifier et valider les modèles de géosimulation. Dans la neuvième étape, nous testons et nous documentons le prototype de géosimulation. Finalement, dans la dixième étape, les utilisateurs finaux peuvent utiliser la géosimulation multiagent comme outil d’aide à la décision. Ces décisions peuvent concerner le phénomène à simuler ou la configuration spatiale de son environnement. Les principales contributions de cette thèse sont : - Une nouvelle méthode de développement d’applications de géosimulation multiagent, en 2D et 3D, des phénomènes complexes (tels que ceux qui impliquent des comportements humains) dans des environnements géographiques. - Quelques modèles représentant le comportement du magasinage dans un centre commercial qui se basent sur une recherche bibliographique solide dans divers domaines de recherche: Une version intégrée du modèle du comportement du magasinage dans un centre commercial, Deux versions du modèle multiagent du comportement du magasinage (la première est indépendante de la plate-forme qui va être utilisée pour exécuter la simulation et la deuxième est dépendante). - Une application de la méthode proposée en utilisant le comportement du magasinage dans un centre commercial comme cas d’illustration. Le cas de test qui a servi pour développer le prototype de simulation est le centre commercial Square One (Toronto). Ce prototype ‘réaliste’ et ‘utile’ est intitulé Mall_MAGS. - Une technique à base de questionnaire pour collecter des données spatiales et non-spatiales qui servent à alimenter des géosimulations. - Un outil qui permet de saisir, simultanément, des données spatiales et non-spatiales qui vont alimenter des géosimulations. - Une technique à base d’agents qui sert à collecter des donnees spatiales et non-spatiales en provenance de la géosimulation en utilisant le paradigme d’agents, ainsi qu’un outil d’analyse de ces données. - Un couplage des techniques d’analyse et d’exploration de données OLAP (On Line Analytical Processing)/SOLAP (Spatial On Line Analytical Processing) et de notre prototype de géosimulation du comportement du magasinage des êtres humains dans un centre commercial. Ce couplage sert à analyser et à explorer les données générées par ce prototype.
90

A multi-agent system for on-the-fly web map generation and spatial conflict resolution

Jabeur, Nafaâ 02 1900 (has links) (PDF)
Résumé Internet est devenu un moyen de diffusion de l’information géographique par excellence. Il offre de plus en plus de services cartographiques accessibles par des milliers d’internautes à travers le monde. Cependant, la qualité de ces services doit être améliorée, principalement en matière de personnalisation. A cette fin, il est important que la carte générée corresponde autant que possible aux besoins, aux préférences et au contexte de l’utilisateur. Ce but peut être atteint en appliquant les transformations appropriées, en temps réel, aux objets de l’espace à chaque cycle de génération de la carte. L’un des défis majeurs de la génération d’une carte à la volée est la résolution des conflits spatiaux qui apparaissent entre les objets, essentiellement à cause de l’espace réduit des écrans d’affichage. Dans cette thèse, nous proposons une nouvelle approche basée sur la mise en œuvre d’un système multiagent pour la génération à la volée des cartes et la résolution des conflits spatiaux. Cette approche est basée sur l’utilisation de la représentation multiple et la généralisation cartographique. Elle résout les conflits spatiaux et génère les cartes demandées selon une stratégie innovatrice : la génération progressive des cartes par couches d’intérêt. Chaque couche d’intérêt contient tous les objets ayant le même degré d’importance pour l’utilisateur. Ce contenu est déterminé à la volée au début du processus de génération de la carte demandée. Notre approche multiagent génère et transfère cette carte suivant un mode parallèle. En effet, une fois une couche d’intérêt générée, elle est transmise à l’utilisateur. Dans le but de résoudre les conflits spatiaux, et par la même occasion générer la carte demandée, nous affectons un agent logiciel à chaque objet de l’espace. Les agents entrent ensuite en compétition pour l’occupation de l’espace disponible. Cette compétition est basée sur un ensemble de priorités qui correspondent aux différents degrés d’importance des objets pour l’utilisateur. Durant la résolution des conflits, les agents prennent en considération les besoins et les préférences de l’utilisateur afin d’améliorer la personnalisation de la carte. Ils améliorent la lisibilité des objets importants et utilisent des symboles qui pourraient aider l’utilisateur à mieux comprendre l’espace géographique. Le processus de génération de la carte peut être interrompu en tout temps par l’utilisateur lorsque les données déjà transmises répondent à ses besoins. Dans ce cas, son temps d’attente est réduit, étant donné qu’il n’a pas à attendre la génération du reste de la carte. Afin d’illustrer notre approche, nous l’appliquons au contexte de la cartographie sur le web ainsi qu’au contexte de la cartographie mobile. Dans ces deux contextes, nous catégorisons nos données, qui concernent la ville de Québec, en quatre couches d’intérêt contenant les objets explicitement demandés par l’utilisateur, les objets repères, le réseau routier et les objets ordinaires qui n’ont aucune importance particulière pour l’utilisateur. Notre système multiagent vise à résoudre certains problèmes liés à la génération à la volée des cartes web. Ces problèmes sont les suivants : 1. Comment adapter le contenu des cartes, à la volée, aux besoins des utilisateurs ? 2. Comment résoudre les conflits spatiaux de manière à améliorer la lisibilité de la carte tout en prenant en considération les besoins de l’utilisateur ? 3. Comment accélérer la génération et le transfert des données aux utilisateurs ? Les principales contributions de cette thèse sont : 1. La résolution des conflits spatiaux en utilisant les systèmes multiagent, la généralisation cartographique et la représentation multiple. 2. La génération des cartes dans un contexte web et dans un contexte mobile, à la volée, en utilisant les systèmes multiagent, la généralisation cartographique et la représentation multiple. 3. L’adaptation des contenus des cartes, en temps réel, aux besoins de l’utilisateur à la source (durant la première génération de la carte). 4. Une nouvelle modélisation de l’espace géographique basée sur une architecture multi-couches du système multiagent. 5. Une approche de génération progressive des cartes basée sur les couches d’intérêt. 6. La génération et le transfert, en parallèle, des cartes aux utilisateurs, dans les contextes web et mobile. / Abstract Internet is a fast growing medium to get and disseminate geospatial information. It provides more and more web mapping services accessible by thousands of users worldwide. However, the quality of these services needs to be improved, especially in term of personalization. In order to increase map flexibility, it is important that the map corresponds as much as possible to the user’s needs, preferences and context. This may be possible by applying the suitable transformations, in real-time, to spatial objects at each map generation cycle. An underlying challenge of such on-the-fly map generation is to solve spatial conflicts that may appear between objects especially due to lack of space on display screens. In this dissertation, we propose a multiagent-based approach to address the problems of on-the-fly web map generation and spatial conflict resolution. The approach is based upon the use of multiple representation and cartographic generalization. It solves conflicts and generates maps according to our innovative progressive map generation by layers of interest approach. A layer of interest contains objects that have the same importance to the user. This content, which depends on the user’s needs and the map’s context of use, is determined on-the-fly. Our multiagent-based approach generates and transfers data of the required map in parallel. As soon as a given layer of interest is generated, it is transmitted to the user. In order to generate a given map and solve spatial conflicts, we assign a software agent to every spatial object. Then, the agents compete for space occupation. This competition is driven by a set of priorities corresponding to the importance of objects for the user. During processing, agents take into account users’ needs and preferences in order to improve the personalization of the final map. They emphasize important objects by improving their legibility and using symbols in order to help the user to better understand the geographic space. Since the user can stop the map generation process whenever he finds the required information from the amount of data already transferred, his waiting delays are reduced. In order to illustrate our approach, we apply it to the context of tourist web and mobile mapping applications. In these contexts, we propose to categorize data into four layers of interest containing: explicitly required objects, landmark objects, road network and ordinary objects which do not have any specific importance for the user. In this dissertation, our multiagent system aims at solving the following problems related to on-the-fly web mapping applications: 1. How can we adapt the contents of maps to users’ needs on-the-fly? 2. How can we solve spatial conflicts in order to improve the legibility of maps while taking into account users’ needs? 3. How can we speed up data generation and transfer to users? The main contributions of this thesis are: 1. The resolution of spatial conflicts using multiagent systems, cartographic generalization and multiple representation. 2. The generation of web and mobile maps, on-the-fly, using multiagent systems, cartographic generalization and multiple representation. 3. The real-time adaptation of maps’ contents to users’ needs at the source (during the first generation of the map). 4. A new modeling of the geographic space based upon a multi-layers multiagent system architecture. 5. A progressive map generation approach by layers of interest. 6. The generation and transfer of web and mobile maps at the same time to users.

Page generated in 0.0239 seconds