• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 15
  • 4
  • 1
  • Tagged with
  • 21
  • 21
  • 14
  • 10
  • 6
  • 5
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Un nouvel horizon pour la recommandation : intégration de la dimension spatiale dans l'aide à la décision / A new horizon for the recommendation : integration of spatial dimensions to aid decision making

Chulyadyo, Rajani 19 October 2016 (has links)
De nos jours, il est très fréquent de représenter un système en termes de relations entre objets. Parmi les applications les plus courantes de telles données relationnelles, se situent les systèmes de recommandation (RS), qui traitent généralement des relations entre utilisateurs et items à recommander. Les modèles relationnels probabilistes (PRM) sont un bon choix pour la modélisation des dépendances probabilistes entre ces objets. Une tendance croissante dans les systèmes de recommandation est de rajouter une dimension spatiale à ces objets, que ce soient les utilisateurs, ou les items. Cette thèse porte sur l’intersection peu explorée de trois domaines connexes - modèles probabilistes relationnels (et comment apprendre les dépendances probabilistes entre attributs d’une base de données relationnelles), les données spatiales et les systèmes de recommandation. La première contribution de cette thèse porte sur le chevauchement des PRM et des systèmes de recommandation. Nous avons proposé un modèle de recommandation à base de PRM capable de faire des recommandations à partir des requêtes des utilisateurs, mais sans profils d’utilisateurs, traitant ainsi le problème du démarrage à froid. Notre deuxième contribution aborde le problème de l’intégration de l’information spatiale dans un PRM. / Nowadays it is very common to represent a system in terms of relationships between objects. One of the common applications of such relational data is Recommender System (RS), which usually deals with the relationships between users and items. Probabilistic Relational Models (PRMs) can be a good choice for modeling probabilistic dependencies between such objects. A growing trend in recommender systems is to add spatial dimensions to these objects, and make recommendations considering the location of users and/or items. This thesis deals with the (not much explored) intersection of three related fields – Probabilistic Relational Models (a method to learn probabilistic models from relational data), spatial data (often used in relational settings), and recommender systems (which deal with relational data). The first contribution of this thesis deals with the overlapping of PRM and recommender systems. We have proposed a PRM-based personalized recommender system that is capable of making recommendations from user queries in cold-start systems without user profiles. Our second contribution addresses the problem of integrating spatial information into a PRM.
2

Un système de recherche d’information personnalisée basé sur la modélisation multidimensionnelle de l’utilisateur / Personalized Information retrieval system based on multidimensional user modeling

Hadjouni Krir, Myriam 21 September 2012 (has links)
Depuis l'explosion du Web, la Recherche d'Information (RI) s'est vue étendue et les moteurs de recherche sur le Web ont vu le jour. Les méthodes classiques de la RI, surtout destinées à des recherches textuelles simples, se sont retrouvées face à des documents de différents formats et des contenus riches. L'utilisateur, en réponse à cette avancée, est devenu plus exigeant quant aux résultats retournés par les systèmes de RI. La personnalisation tente de répondre à ces exigences en ayant pour objectif principal l'amélioration des résultats retournés à l'utilisateur en fonction de sa perception et de ses intérêts ainsi que de ses préférences. Le présent travail de thèse se situe à la croisée des différents aspects présentés et couvre cette problématique. Elle a pour objectif principal de proposer des solutions nouvelles et efficaces à cette problématique. Pour atteindre cet objectif, un système de personnalisation de la recherche spatiale et sémantique sur le Web et intégrant la modélisation de l'utilisateur, a été proposé. Ce système comprend deux volets : 1/ la modélisation de l'utilisateur ; 2/ la collaboration implicite des utilisateurs à travers la construction d'un réseau de modèles utilisateurs, construit itérativement lors des différentes recherches effectuées en ligne. Un prototype supportant le système proposé a été développé afin d'expérimenter et d'évaluer l'ensemble de la proposition. Ainsi, nous avons effectué un ensemble d'évaluation, dont les principales sont : a) l'évaluation de la qualité du modèle de l'utilisateur ; b) l'évaluation de l'efficacité de la recherche d'information ; c) l’évaluation de l'efficacité de la recherche d'information intégrant les informations spatiales ; d) l'évaluation de la recherche exploitant le réseau d'utilisateurs. Les expérimentations menées montrent une amélioration de la personnalisation des résultats présentés par rapport à ceux obtenus par d'autres moteurs de recherche. / The web explosion has led Information Retrieval (IR) to be extended and web search engines emergence. The conventional IR methods, usually intended for simple textual searches, faced new documents types and rich and scalable contents. The users, facing these evolutions, ask more for IR systems search results quality. In this context, the personalization main objective is improving results returned to the end user based sing on its perception and its interests and preferences. This thesis context is concerned with these different aspects. Its main objective is to propose new and effective solutions to the personalization problem. To achieve this goal, a spatial and semantic web personalization system integrating implicit user modeling is proposed. This system has two components: 1/ user modeling; /2 implicit users' collaboration through the construction of a users' models network. A system prototype was developed for the evaluation purpose that contains: a) user model quality evaluation; b) information retrieval quality evaluation; c) information retrieval quality evaluation with the spatial user model data; d) information retrieval quality evaluation with the whole user model data and the users' models network. Experiments showed amelioration in the personalized search results compared to a baseline web search.
3

Analyse et extraction de connaissances des bases de données spatio-temporelles

Zeitouni, Karine 01 December 2006 (has links) (PDF)
Ces dernières années ont vu une croissance phénoménale dans la production et la diffusion des données spatiales de sources aussi variées qu'hétérogènes. Cela a généré des besoins d'intégration dans des entrepôts de données et des perspectives d'analyse exploratoire et de fouille de données spatiales et spatiotemporelles. Nos travaux se placent dans ce contexte visant l'analyse et l'extraction des connaissances depuis les bases de données spatiotemporelles. Ils traitent différents aspects allant de la modélisation avancée des données spatiales, à la fouille de ces données en passant par leur intégration dans un entrepôt, l'optimisation des requêtes et l'analyse en ligne. Ainsi, nous décrivons nos approches pour la modélisation 3D, puis pour la modélisation spatiotemporelle d'objets mobiles. Ensuite, l'intégration de données spatiales est traitées selon deux aspects : l'intégration de formats et l'intégration de données par l'appariement géométrique. Une architecture d'entrepôt de données spatiales basée sur les standards XML et GML est proposée, puis dotée d'une technique d'optimisation de requêtes spatiales basée sur un cache sémantique. L'exploration des données spatiotemporelles a donné lieu à des solutions originales extension de l'OLAP. Enfin, différentes approches sont proposées pour la fouille de données spatiales. Nous avons ouvert le spectre de nos recherches à la fouille d'autres données complexes, telles que les données séquentielles et textuelles. Ces travaux ainsi que les développements futurs sont exposés dans ce mémoire.
4

Un système de recherche d'information personnalisée basé sur la modélisation multidimensionnelle de l'utilisateur

Hadjouni Krir, Myriam 21 September 2012 (has links) (PDF)
Depuis l'explosion du Web, la Recherche d'Information (RI) s'est vue étendue et les moteurs de recherche sur le Web ont vu le jour. Les méthodes classiques de la RI, surtout destinées à des recherches textuelles simples, se sont retrouvées face à des documents de différents formats et des contenus riches. L'utilisateur, en réponse à cette avancée, est devenu plus exigeant quant aux résultats retournés par les systèmes de RI. La personnalisation tente de répondre à ces exigences en ayant pour objectif principal l'amélioration des résultats retournés à l'utilisateur en fonction de sa perception et de ses intérêts ainsi que de ses préférences. Le présent travail de thèse se situe à la croisée des différents aspects présentés et couvre cette problématique. Elle a pour objectif principal de proposer des solutions nouvelles et efficaces à cette problématique. Pour atteindre cet objectif, un système de personnalisation de la recherche spatiale et sémantique sur le Web et intégrant la modélisation de l'utilisateur, a été proposé. Ce système comprend deux volets : 1/ la modélisation de l'utilisateur ; 2/ la collaboration implicite des utilisateurs à travers la construction d'un réseau de modèles utilisateurs, construit itérativement lors des différentes recherches effectuées en ligne. Un prototype supportant le système proposé a été développé afin d'expérimenter et d'évaluer l'ensemble de la proposition. Ainsi, nous avons effectué un ensemble d'évaluation, dont les principales sont : a) l'évaluation de la qualité du modèle de l'utilisateur ; b) l'évaluation de l'efficacité de la recherche d'information ; c) l'évaluation de l'efficacité de la recherche d'information intégrant les informations spatiales ; d) l'évaluation de la recherche exploitant le réseau d'utilisateurs. Les expérimentations menées montrent une amélioration de la personnalisation des résultats présentés par rapport à ceux obtenus par d'autres moteurs de recherche.
5

Gestion de la Mise à Jour de Données Géographiques Répliquées

Pierkot, Christelle 02 July 2008 (has links) (PDF)
De nos jours, l'information géographique constitue une ressource incontournable dans un contexte de prise de décision et les données numériques spatiales sont de plus en plus fréquemment exploitées comme support et aide à la décision par de nombreuses organisations.<br />L'institution militaire utilise elle aussi les données spatiales comme soutien et aide à la décision. A chaque étape d'une mission, des informations géographiques de tous types sont employées (données numériques, cartes papiers, photographies aériennes...) pour aider les unités dans leurs choix stratégiques. Par ailleurs, l'utilisation de réseaux de communication favorise le partage et l'échange des données spatiales entre producteurs et utilisateurs situés à des endroits différents. L'information n'est pas centralisée, les données sont répliquées sur chaque site et les utilisateurs peuvent ponctuellement être déconnectés du réseau, par exemple lorsqu'une unité mobile va faire des mesures sur le terrain.<br />La problématique principale concerne donc la gestion dans un contexte militaire, d'une application collaborative permettant la mise à jour asynchrone et symétrique de données géographiques répliquées selon un protocole à cohérence faible optimiste. Cela nécessite de définir un modèle de cohérence approprié au contexte militaire, un mécanisme de détection des mises à jour conflictuelles lié au type de données manipulées et des procédures de réconciliation des écritures divergentes adaptées aux besoins des unités participant à la mission.<br />L'analyse des travaux montre que plusieurs protocoles ont été définis dans les communautés systèmes (Cederqvist :2001 ; Kermarrec :2001) et bases de données (Oracle :2003 ; Seshadri :2000) pour gérer la réplication des données. Cependant, les solutions apportées sont souvent fonctions du besoin spécifique de l'application et ne sont donc pas réutilisables dans un contexte différent, ou supposent l'existence d'un serveur de référence centralisant les données. Les mécanismes employés en information géographique pour gérer les données et les mises à jour ne sont pas non plus appropriés à notre étude car ils supposent que les données soient verrouillées aux autres utilisateurs jusqu'à ce que les mises à jour aient été intégrée (approche check in-check out (ESRI :2004), ou utilisent un serveur centralisé contenant les données de référence (versionnement : Cellary :1990).<br />Notre objectif est donc de proposer des solutions permettant l'intégration cohérente et autant que possible automatique, des mises à jour de données spatiales dans un environnement de réplication optimiste, multimaître et asynchrone.<br />Nous proposons une stratégie globale d'intégration des mises à jour spatiales basée sur une vérification de la cohérence couplé à des sessions de mises à jour. L'originalité de cette stratégie réside dans le fait qu'elle s'appuie sur des métadonnées pour fournir des solutions de réconciliation adaptées au contexte particulier d'une mission militaire.<br />La contribution de cette thèse est double. Premièrement, elle s'inscrit dans le domaine de la gestion de la mise à jour des données spatiales, domaine toujours très actif du fait de la complexité et de l'hétérogénéité des données (Nous limitons néanmoins notre étude aux données géographiques vectorielles) et de la relative «jeunesse » des travaux sur le sujet. Deuxièmement, elle s'inscrit dans le domaine de la gestion de la cohérence des données répliquées selon un protocole optimiste, en spécifiant en particulier, de nouveaux algorithmes pour la détection et la réconciliation de données conflictuelles, dans le domaine applicatif de l'information géographique.
6

Profil des internautes bancaires et données géo-référencées

Abbassi, Aziza 07 1900 (has links) (PDF)
Depuis déjà plusieurs années, les nombreux progrès technologiques dans le monde des affaires modifient amplement les caractéristiques de l'économie mondiale. Pour les entreprises, les mots d'ordre sont : rapidité, précision et réduction des coûts. L'avènement d'Internet dans les pratiques commerciales représente justement l'une des principales facettes de ce progrès technologique. Aujourd'hui, le consommateur peut quasiment tout faire à distance : recherche d'informations, magasinage, participation à la conception des produits, opérations d'achats et de ventes, participation à des recherches marketing, suggestions et apport de nouvelles idées aux entreprises etc. C'est particulièrement le cas de l'industrie financière. En effet, dans beaucoup de pays, le client jouit d'une très grande liberté par rapport à son comportement bancaire. Il peut, en effet, gérer ses comptes, payer ses factures ou encore transférer des fonds, partout et en tout temps. D'où les deux concepts : 1- l'Internet bancaire, représentant les services bancaires via Internet et 2- l'Internaute bancaire, c'est à dire, le client opérant sur Internet. Les internautes bancaires sont de plus en plus nombreux et leurs profils deviennent très diversifiés. Cependant ce fait, peu de recherches s'intéressent aujourd'hui à décrire cette vaste population. Il nous a donc semblé pertinent de réaliser un travail de segmentation ayant comme objectifs afin de mettre en lumière et de décrire les différents profils des utilisateurs de l'Internet bancaire. Pour cela, nous avons sélectionné un échantillon de 30191 internautes bancaires, clients d'une grande institution financière canadienne, avec des données sur leur comportement transactionnel, afin de mettre en lumière les différents segments de marché. Ensuite, nous avons eu recours à la base de données « Mosaic » du Canada, base constituée de vingt catégories de profils canadiens, afin de décrire ces segments d'utilisateurs avec des variables géodémographiques. Notre analyse nous a permis d'identifier trois segments d'internautes bancaires distincts, à savoir : les petits, les moyens et les gros utilisateurs de l'Internet bancaire. Selon la base de données Mosaic, ces trois segments de marché sont associés à cinq profils Mosaic, à savoir : les Non-Revolving Borrowers, les Borrowing Families, les Mature Québécois, les Young Francophone et les Francophone Traditionalists. Ainsi, nous avons pu obtenir une description détaillée de chacun des trois segments d'Internautes bancaires, comprenant leur situation familiale, âge, style d'habitation, zone géographique, niveau de scolarité, occupation, revenu, montant de leurs dépenses, catégories de dépenses, catégories d'assurances prises, passe temps, sports pratiqués...etc. Ce genre de descriptions représente des informations clés pour les institutions financières et peut s'avérer extrêmement utile pour leurs prises de décision. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Évolutions technologiques, Industrie financière, Comportement bancaire, Internet bancaire, Internaute bancaire, Profils, Segmentation, Institution financière, Mosaic, variables géodémographiques.
7

Proposition d'une nouvelle méthode de conception de cubes SOLAP exploitant des données spatiales vagues / Handling spatial vagueness issues in SOLAP datacubes by introducing a risk-aware approach in their design

Edoh-Alove, Djogbénuyè Akpé 10 April 2015 (has links)
Les systèmes Spatial On-Line Analytical Processing (SOLAP) permettent de prendre en charge l’analyse multidimensionnelle en ligne d’un très grand volume de données ayant une référence spatiale. Dans ces systèmes, le vague spatial n’est généralement pas pris en compte, ce qui peut être source d’erreurs dans les analyses et les interprétations des cubes de données SOLAP, effectuées par les utilisateurs finaux. Bien qu’il existe des modèles d’objets ad-hoc pour gérer le vague spatial, l’implantation de ces modèles dans les systèmes SOLAP est encore à l’état embryonnaire. En outre, l’introduction de tels modèles dans les systèmes SOLAP accroit la complexité de l’analyse au détriment de l’utilisabilité dans bon nombre de contextes applicatifs. Dans cette thèse nous nous proposons d’investiguer la piste d’une nouvelle approche visant un compromis approprié entre l’exactitude théorique de la réponse au vague spatial, la facilité d’implantation dans les systèmes SOLAP existants et l’utilisabilité des cubes de données fournis aux utilisateurs finaux.Les objectifs de cette thèse sont donc de jeter les bases d’une approche de conception de cube SOLAP où la gestion du vague est remplacée par la gestion des risques de mauvaises interprétations induits, d’en définir les principes d’une implantation pratique et d’en démontrer les avantages.En résultats aux travaux menés, une approche de conception de cubes SOLAP où le risque de mauvaise interprétation est considéré et géré de manière itérative et en adéquation avec les sensibilités des utilisateurs finaux quant aux risques potentiels identifiés a été proposée; des outils formels à savoir un profil UML adapté, des fonctions de modification de schémas multidimensionnels pour construire les cubes souhaités, et un processus formel guidant de telles transformations de schémas ont été présentés; la vérification de la faisabilité de notre approche dans un cadre purement informatique avec la mise en oeuvre de l’approche dans un outil CASE (Computed Aided Software Engineering) a aussi été présentée. Pour finir, nous avons pu valider le fait que l’approche fournisse non seulement des cubes aussi compréhensibles et donc utilisables que les cubes classiques, mais aussi des cubes où le vague n’est plus laissé de côté, sans aucun effort pour atténuer ses impacts sur les analyses et les prises de décision des utilisateurs finaux. / SOLAP (Spatial On-Line Analytical Processing) systems support the online multi-dimensional analysis of a very large volume of data with a spatial reference. In these systems, the spatial vagueness is usually not taken into account, which can lead to errors in the SOLAP datacubes analyzes and interpretations end-users make. Although there are ad-hoc models of vague objects to manage the spatial vagueness, the implementation of these models in SOLAP systems is still in an embryonal state. In addition, the introduction of such models in SOLAP systems increases the complexity of the analysis at the expense of usability in many application contexts. In this thesis we propose to investigate the trail of a new approach that makes an appropriate compromise between the theoretical accuracy of the response to the spatial vagueness, the ease of implementation in existing SOLAP systems and the usability of datacubes provided to end users.The objectives of this thesis are to lay the foundations of a SOLAP datacube design approach where spatial vagueness management in itself is replaced by the management of risks of misinterpretations induced by the vagueness, to define the principles of a practical implementation of the approach and to demonstrate its benefits.The results of this thesis consist of a SOLAP datacube design approach where the risks of misinterpretation are considered and managed in an iterative manner and in line with the end users tolerance levels regarding those risks; formal tools namely a suitable UML (Unified Modeling Language) profile, multidimensional schemas transformation functions to help tailored the datacubes to end-users tolerance levels, and a formal process guiding such schemas transformation; verifying the feasibility of our approach in a computing context with the implementation of the approach in a CASE (Computed Aided Software Engineering) tool. Finally, we were able to validate that the approach provides SOLAP datacubes that are not only as comprehensible and thus usable as conventional datacubes but also datacubes where the spatial vagueness is not left out, with no effort to mitigate its impacts on analysis and decision making for end users.
8

Fouille de données billettiques pour l'analyse de la mobilité dans les transports en commun / Analysis of Mobility in Public Transport Systems Through Machine Learning Applied to Ticketing Log Data

Briand, Anne-Sarah 05 December 2017 (has links)
Les données billettiques sont de plus en plus utilisées pour l'analyse de la mobilité dans les transports en commun. Leur richesse spatiale et temporelle ainsi que leur volume, en font un bon matériel pour une meilleure compréhension des habitudes des usagers, pour prédire les flux de passagers ou bien encore pour extraire des informations sur les événements atypiques (ou anomalies), correspondant par exemple à un accroissement ou à une baisse inhabituelle du nombre de validations enregistrées sur le réseau.Après une présentation des travaux ayant été menés sur les données billettiques, cette thèse s'est attachée à développer de nouveaux outils de traitement de ces données. Nous nous sommes particulièrement intéressés à deux challenges nous semblant non encore totalement résolus dans la littérature : l'aide à la mise en qualité des données et la modélisation et le suivi des habitudes temporelles des usagers.Un des principaux challenges de la mise en qualité des données consiste en la construction d'une méthodologie robuste qui soit capable de détecter des plages de données potentiellement problématique correspondant à des situations atypiques et ce quel que soit le contexte (jour de la semaine, vacances, jours fériés, ...). Pour cela une méthodologie en deux étapes a été déployée, à savoir le clustering pour la détermination du contexte et la détection d'anomalies. L'évaluation de la méthodologie proposée a été entreprise sur un jeu de données réelles collectées sur le réseau de transport en commun rennais. En croisant les résultats obtenus avec les événements sociaux et culturels de la ville, l'approche a permis d'évaluer l'impact de ces événements sur la demande en transport, en termes de sévérité et d'influence spatiale sur les stations voisines.Le deuxième volet de la thèse concerne la modélisation et le suivi de l'activité temporelle des usagers. Un modèle de mélange de gaussiennes a été développé pour partitionner les usagers dans les clusters en fonction des heures auxquelles ils utilisent les transports en commun. L'originalité de la méthodologie proposée réside dans l'obtention de profils temporels continus pour décrire finement les routines temporelles de chaque groupe d'usager. Les appartenance aux clusters ont également été croisées avec les données disponibles sur les usagers (type de carte) en vue d'obtenir une description plus précise de chaque cluster. L'évolution de l'appartenance aux clusters au cours des années a également été analysée afin d'évaluer la stabilité de l'utilisation des transports d'une année sur l'autre. / Ticketing logs are being increasingly used to analyse mobility in public transport. The spatial and temporal richness as well as the volume of these data make them useful for understanding passenger habits and predicting origin-destination flows. Information on the operations carried out on the transportation network can also be extracted in order to detect atypical events (or anomalies), such as an unusual increase or decrease in the number of validations.This thesis focuses on developing new tools to process ticketing log data. We are particularly interested in two challenges that seem to be not yet fully resolved in the literature: help with data quality as well as the modeling and monitoring of passengers' temporal habits.One of the main challenges in data quality is the construction of a robust methodology capable of detecting atypical situations in any context (day of the week, holidays, public holidays, etc.). To this end, two steps were deployed, namely clustering for context estimation and detection of anomalies. The evaluation of the proposed methodology is conducted on a real dataset collected on the Rennes public transport network. By cross-comparing the obtained results with the social and cultural events of the city, it is possible to assess the impact of these events on transport demand, in terms, of severity and spatial influence on neighboring stations.The second part of the thesis focuses on the modeling and the tracking of the temporal activity of passengers. A Gaussian mixture model is proposed to partition passengers into clusters according to the hours they use public transport. The originality of the methodology compared to existing approaches lies in obtaining continuous time profiles in order to finely describe the time routines of each passenger cluster. Cluster memberships are also cross-referenced with passenger data (card type) to obtain a more accurate description of each cluster. The cluster membership over the years has also been analyzed in order to study how the use of transport evolves
9

Analyse historique et comparative des deux villes : la vieille ville d'Aix-en-Provence, la médina de Constantine à l'aide des S.I.G. : Comparaison historique et géographique de la croissance de deux villes méditerranéennes

Ahmed-Chaouch, Nabil 25 June 2012 (has links)
De nombreux domaines d'applications utilisent des représentations spatiales. C'est le cas de l'architecture, de l'urbanisme ou de la géographie. L'acquisition de ces données spatiales en urbanisme a connu ces dernières années des progrès significatifs grâce à l'introduction de nouveaux instruments de mesure. Ces derniers permettent d'obtenir des supports d'analyse urbaine à différents niveaux de détails et pour différentes finalités. Cette thèse propose une approche permettant de combiner deux disciplines, la typo-morphologie urbaine et la géomatique. Nous avons expliqué la notion centrale de processus morphologique, les différentes étapes d'opération propre à l'analyse historique, notamment le traitement des sources cartographiques avec l'outil S.I.G. Notre travail a avant tout consisté à explorer l'apport des S.I.G. au traitement et à l'analyse des données historiques. Nous nous sommes intéressés particulièrement à l'approche typo-morphologique pour compléter le potentiel interprétatif et descriptif. Notre travail de thèse est issu de différentes étapes, nous pouvons mentionner la construction d'une classification formelle, des concepts liés à l'évolution historique et morphologique des villes de Constantine et d'Aix-en-Provence. En partant de cette histoire urbaine, comparer ces deux villes à permis d'établir une chronologie de l'évolution des formes urbaines, de mieux saisir les enjeux de chacune de celles-ci. / Many fields of applications use spatial representations. This is the case of architecture, town planning or geography. The acquisition of these spatial datas in town planning these last years has experienced a significant progress with the introduction of new instruments. This acquisition allows to get urban support analysis at different levels of details and for different purposes. This thesis proposes an approach to combine two disciplines, the urban typomorphology and geomatics. We have explained the central notion of morphological process, the different steps of operation peculiar to the historical analysis for the treatment of map datas with the GIS instrument, primarily our work consist to explore the GIS contribution to the historical data treatment and analysis. We focused particularly on the approach to complete typomorphological potential interpretive and descriptive. Our thesis work has been made from different stages, we can mention the construction of a formal classification, concepts related to the historical development and morphology of Constantine and Aix-en-Provence. Starting from this urban history compare the two cities has established a chronology of the evolution of urban forms, to better understand the challenges each of these latter. Specifically, this work allows us to contribute to improving the mastery of the urban project. Finally tracks are proposed to continue this work by exploiting the platform exploration of 3D representation proved very useful for making historical analysis.
10

Méthodologie d'évaluation de la cohérence inter-représentations pour l'intégration de bases de données spatiales. Une approche combinant l'utilisation de métadonnées et l'apprentissage automatique.

Sheeren, David 20 May 2005 (has links) (PDF)
A l'heure actuelle, la plupart des bases de données spatiales sont gérées de manière indépendante.<br />Cette indépendance pose différents problèmes : elle multiplie les efforts de maintenance et de mise à<br />jour, elle rend difficile la mise en œuvre d'analyses multi-niveaux et ne garantit pas une cohérence<br />entre les sources.<br />Une gestion conjointe de ces sources nécessite leur intégration qui permet de définir des liens<br />explicites entre les bases et d'en fournir une vision unifiée. Notre thèse s'inscrit dans ce cadre. Le sujet<br />que nous traitons porte en particulier sur la mise en correspondance des données et l'évaluation de la<br />cohérence inter-représentations. Nous cherchons à analyser automatiquement chaque différence de<br />représentation entre les données appariées afin d'en déduire si celle-ci résulte des critères de saisie<br />différents des bases ou d'erreurs de saisie. Cette évaluation vise à garantir une intégration cohérente<br />des données.<br />Pour étudier la conformité des représentations nous proposons d'exploiter les spécifications des<br />bases. Ces documents décrivent les règles de sélection et de modélisation des objets. Ils constituent<br />des métadonnées de référence pour juger si les représentations sont équivalentes ou incohérentes.<br />L'utilisation de ces documents est toutefois insuffisante. Les spécifications décrites en langue naturelle<br />peuvent être imprécises ou incomplètes. Dans ce contexte, les données des bases constituent une<br />seconde source de connaissances intéressante. L'analyse des correspondances à l'aide de techniques<br />d'apprentissage automatique permet d'induire des règles rendant possible la justification de la<br />conformité des représentations.<br />La méthodologie que nous proposons repose sur ces éléments. Elle se compose de deux méthodes :<br />MECO et MACO. La première est la Méthode d'Evaluation de la COhérence. Elle comprend plusieurs<br />étapes : l'enrichissement des données, le contrôle intra-base, l'appariement, le contrôle inter-bases et<br />l'évaluation finale. Chacune de ces étapes exploite des connaissances déduites des spécifications ou<br />induites des données par apprentissage automatique, en appliquant MACO (Méthode d'Acquisition de<br />connaissances pour l'évaluation de la COhérence). L'intérêt d'utiliser l'apprentissage est double. Outre<br />le fait qu'il permet d'acquérir des règles pour l'évaluation, il met en évidence l'écart toléré sur les<br />données par rapport aux spécifications papiers.<br />Notre approche a été mise en œuvre sur des bases de données de l'IGN présentant différents<br />niveaux de détail.

Page generated in 0.4581 seconds