• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 317
  • 72
  • 24
  • 11
  • 2
  • 1
  • Tagged with
  • 454
  • 166
  • 109
  • 102
  • 101
  • 90
  • 82
  • 78
  • 71
  • 71
  • 59
  • 54
  • 51
  • 51
  • 46
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
151

The Design of Vague Spatial Data Warehouses

Lopes Siqueira, Thiago Luis 07 December 2015 (has links) (PDF)
Spatial data warehouses (SDW) and spatial online analytical processing (SOLAP) enhance decision making by enabling spatial analysis combined with multidimensional analytical queries. A SDW is an integrated and voluminous multidimensional database containing both conventional and spatial data. SOLAP allows querying SDWs with multidimensional queries that select spatial data that satisfy a given topological relationship and that aggregate spatial data. Existing SDW and SOLAP applications mostly consider phenomena represented by spatial data having exact locations and sharp boundaries. They neglect the fact that spatial data may be affected by imperfections, such as spatial vagueness, which prevents distinguishing an object from its neighborhood. A vague spatial object does not have a precisely defined boundary and/or interior. Thus, it may have a broad boundary and a blurred interior, and is composed of parts that certainly belong to it and parts that possibly belong to it. Although several real-world phenomena are characterized by spatial vagueness, no approach in the literature addresses both spatial vagueness and the design of SDWs nor provides multidimensional analysis over vague spatial data. These shortcomings motivated the elaboration of this doctoral thesis, which addresses both vague spatial data warehouses (vague SDWs) and vague spatial online analytical processing (vague SOLAP). A vague SDW is a SDW that comprises vague spatial data, while vague SOLAP allows querying vague SDWs. The major contributions of this doctoral thesis are: (i) the Vague Spatial Cube (VSCube) conceptual model, which enables the creation of conceptual schemata for vague SDWs using data cubes; (ii) the Vague Spatial MultiDim (VSMultiDim) conceptual model, which enables the creation of conceptual schemata for vague SDWs using diagrams; (iii) guidelines for designing relational schemata and integrity constraints for vague SDWs, and for extending the SQL language to enable vague SOLAP; (iv) the Vague Spatial Bitmap Index (VSB-index), which improves the performance to process queries against vague SDWs. The applicability of these contributions is demonstrated in two applications of the agricultural domain, by creating conceptual schemata for vague SDWs, transforming these conceptual schemata into logical schemata for vague SDWs, and efficiently processing queries over vague SDWs. / Les entrepôts de données spatiales (EDS) et l'analyse en ligne spatiale (ALS) améliorent la prise de décision en permettant l'analyse spatiale combinée avec des requêtes analytiques multidimensionnelles. Un EDS est une base de données multidimensionnelle intégrée et volumineuse qui contient des données classiques et des données spatiales. L'ALS permet l'interrogation des EDS avec des requêtes multidimensionnelles qui sélectionnent des données spatiales qui satisfont une relation topologique donnée et qui agrègent les données spatiales. Les EDS et l'ALS considèrent essentiellement des phénomènes représentés par des données spatiales ayant une localisation exacte et des frontières précises. Ils négligent que les données spatiales peuvent être affectées par des imperfections, comme l'imprécision spatiale, ce qui empêche de distinguer précisément un objet de son entourage. Un objet spatial vague n'a pas de frontière et/ou un intérieur précisément définis. Ainsi, il peut avoir une frontière large et un intérieur flou, et est composé de parties qui lui appartiennent certainement et des parties qui lui appartiennent éventuellement. Bien que plusieurs phénomènes du monde réel sont caractérisés par l'imprécision spatiale, il n'y a pas dans la littérature des approches qui adressent en même temps l'imprécision spatiale et la conception d'EDS ni qui fournissent une analyse multidimensionnelle des données spatiales vagues. Ces lacunes ont motivé l'élaboration de cette thèse de doctorat, qui adresse à la fois les entrepôts de données spatiales vagues (EDS vagues) et l'analyse en ligne spatiale vague (ALS vague). Un EDS vague est un EDS qui comprend des données spatiales vagues, tandis que l'ALS vague permet d'interroger des EDS vagues. Les contributions majeures de cette thèse de doctorat sont: (i) le modèle conceptuel Vague Spatial Cube (VSCube), qui permet la création de schémas conceptuels pour des EDS vagues à l'aide de cubes de données; (ii) le modèle conceptuel Vague Spatial MultiDim (VSMultiDim), qui permet la création de schémas conceptuels pour des EDS vagues à l'aide de diagrammes; (iii) des directives pour la conception de schémas relationnels et des contraintes d'intégrité pour des EDS vagues, et pour l'extension du langage SQL pour permettre l'ALS vague; (iv) l'indice Vague Spatial Bitmap (VSB-index) qui améliore la performance pour traiter les requêtes adressées à des EDS vagues. L'applicabilité de ces contributions est démontrée dans deux applications dans le domaine agricole, en créant des schémas conceptuels des EDS vagues, la transformation de ces schémas conceptuels en schémas logiques pour des EDS vagues, et le traitement efficace des requêtes sur des EDS vagues. / O data warehouse espacial (DWE) é um banco de dados multidimensional integrado e volumoso que armazena dados espaciais e dados convencionais. Já o processamento analítico-espacial online (SOLAP) permite consultar o DWE, tanto pela seleção de dados espaciais que satisfazem um relacionamento topológico, quanto pela agregação dos dados espaciais. Deste modo, DWE e SOLAP beneficiam o suporte a tomada de decisão. As aplicações de DWE e SOLAP abordam majoritarimente fenômenos representados por dados espaciais exatos, ou seja, que assumem localizações e fronteiras bem definidas. Contudo, tais aplicações negligenciam dados espaciais afetados por imperfeições, tais como a vagueza espacial, a qual interfere na identificação precisa de um objeto e de seus vizinhos. Um objeto espacial vago não tem sua fronteira ou seu interior precisamente definidos. Além disso, é composto por partes que certamente pertencem a ele e partes que possivelmente pertencem a ele. Apesar de inúmeros fenômenos do mundo real serem caracterizados pela vagueza espacial, na literatura consultada não se identificaram trabalhos que considerassem a vagueza espacial no projeto de DWE e nem para consultar o DWE. Tal limitação motivou a elaboração desta tese de doutorado, a qual introduz os conceitos de DWE vago e de SOLAP vago. Um DWE vago é um DWE que armazena dados espaciais vagos, enquanto que SOLAP vago provê os meios para consultar o DWE vago. Nesta tese, o projeto de DWE vago é abordado e as principais contribuições providas são: (i) o modelo conceitual VSCube que viabiliza a criação de um cubos de dados multidimensional para representar o esquema conceitual de um DWE vago; (ii) o modelo conceitual VSMultiDim que permite criar um diagrama para representar o esquema conceitual de um DWE vago; (iii) diretrizes para o projeto lógico do DWE vago e de suas restrições de integridade, e para estender a linguagem SQL visando processar as consultas de SOLAP vago no DWE vago; e (iv) o índice VSB-index que aprimora o desempenho do processamento de consultas no DWE vago. A aplicabilidade dessas contribuições é demonstrada em dois estudos de caso no domínio da agricultura, por meio da criação de esquemas conceituais de DWE vago, da transformação dos esquemas conceituais em esquemas lógicos de DWE vago, e do processamento de consultas envolvendo as regiões vagas do DWE vago. / Doctorat en Sciences de l'ingénieur et technologie / Location of the public defense: Universidade Federal de São Carlos, São Carlos, SP, Brazil. / info:eu-repo/semantics/nonPublished
152

Géohistoire de Toulouse et des villes de parlement (vers 1680 - vers 1830) : des centres administratifs et judiciaires d'Ancien Régime et leur redéfinition après la révolution / Geohistory of Toulouse and parliamentary cities (1680 - 1830) : administrative and judicial centers of the Old Regime and their redefinition after the Revolution

Marqué, Nicolas 01 December 2015 (has links)
En 1790, les autorités locales pensaient que la période révolutionnaire sonnait le glas des villes de parlement. Supprimer les institutions d'Ancien Régime et les ordres religieux qui marquaient les espaces et les sociétés de ces neuf capitales régionales depuis des dizaines voire des centaines d'années signifiait ôter tout rayonnement à ces villes quasiment dépourvues d'industrie ou de commerce de grande ampleur. Paradoxalement, à la fin du premier tiers du XIXe siècle, Besançon, Dijon, Douai, Grenoble, Metz, Pau, Rennes et Toulouse étaient plus peuplées et plus étendues qu'en 1789. Seule Aix-en-Provence ne parvenait pas encore à se remettre de la crise révolutionnaire. De nouvelles fonctions, essentiellement militaires, avaient alors pris la place des magistrats et des hommes d'Eglise. En quelques dizaines d'années, les villes de parlement avaient été complètement redéfinies. Comprendre les conséquences de la suppression des anciens principes structurants des espaces urbains ainsi que celles de la mise en place de nouvelles fonctions urbaines implique d'analyser les espaces urbains du passé à l'aide de problématiques de géographe, donc d'avoir recours à une démarche géo-historique. Celle-ci a particulièrement été appliquée au cas de Toulouse à l'aide du Système d'Information Géographique (S.I.G.) de la ville : Urban-Hist. Cet outil a permis d'analyser l'ensemble des mutations urbaines de l'époque à l'échelle de la parcelle avant de chercher à savoir si les phénomènes alors observés ne concernaient que l'ancienne capitale de Languedoc ou s'il est possible de dégager un modèle de l'évolution des villes parlementaires avant, pendant, et après la Révolution. / In 1790, Toulouse authorities thought that when the French Revolution had suppressed all the Parliaments in the kingdom, they had also destroyed the parliamentary cities. Indeed, there were almost no industrial, commercial or other important economic activities in these administrative and judicial centers. Despite these suppressions, Besançon, Dijon, Douai, Grenoble, Metz, Pau, Rennes and Toulouse were already larger and more populous at the end of the first third of the 19th Century than they were in 1789. Aix-en-Provence was the only one which still suffered from the revolutionary crisis. Some new urban functions took the place of the magistrates and the churchmen. It took only a few decades to redefine the former parliamentary cities. In order to understand this phenomenon and its consequences on the urban spaces of the past we will use some geographical perspectives: we will use a geo-historical method. We will mainly focus on the case of Toulouse thanks to the Geographical Information System (G.I.S.) of this town: Urban-Hist. This tool provides much useful information which can help us understand the changes in the former capital of Languedoc. Were these changes specific to Toulouse or were they representative of the group of continental parliamentary cities before, during and after the French Revolution?
153

Extraction d'information spatiale à partir de données textuelles non-standards / Spatial information extraction from non-standard textual data

Zenasni, Sarah 05 January 2018 (has links)
L’extraction d’information spatiale à partir de données textuelles est désormais un sujet de recherche important dans le domaine du Traitement Automatique du Langage Naturel (TALN). Elle répond à un besoin devenu incontournable dans la société de l’information, en particulier pour améliorer l’efficacité des systèmes de Recherche d’Information (RI) pour différentes applications (tourisme, aménagement du territoire, analyse d’opinion, etc.). De tels systèmes demandent une analyse fine des informations spatiales contenues dans les données textuelles disponibles (pages web, courriels, tweets, SMS, etc.). Cependant, la multitude et la variété de ces données ainsi que l’émergence régulière de nouvelles formes d’écriture rendent difficile l’extraction automatique d’information à partir de corpus souvent peu standards d’un point de vue lexical voire syntaxique.Afin de relever ces défis, nous proposons, dans cette thèse, des approches originales de fouille de textes permettant l’identification automatique de nouvelles variantes d’entités et relations spatiales à partir de données textuelles issues de la communication médiée. Ces approches sont fondées sur trois principales contributions qui sont cruciales pour fournir des méthodes de navigation intelligente. Notre première contribution se concentre sur la problématique de reconnaissance et d’extraction des entités spatiales à partir de corpus de messages courts (SMS, tweets) marqués par une écriture peu standard. La deuxième contribution est dédiée à l’identification de nouvelles formes/variantes de relations spatiales à partir de ces corpus spécifiques. Enfin, la troisième contribution concerne l’identification des relations sémantiques associées à l’information spatiale contenue dans les textes. Les évaluations menées sur des corpus réels, principalement en français (SMS, tweets, presse), soulignent l’intérêt de ces contributions. Ces dernières permettent d’enrichir la typologie des relations spatiales définies dans la communauté scientifique et, plus largement, de décrire finement l’information spatiale véhiculée dans les données textuelles non standards issues d’une communication médiée aujourd’hui foisonnante. / The extraction of spatial information from textual data has become an important research topic in the field of Natural Language Processing (NLP). It meets a crucial need in the information society, in particular, to improve the efficiency of Information Retrieval (IR) systems for different applications (tourism, spatial planning, opinion analysis, etc.). Such systems require a detailed analysis of the spatial information contained in the available textual data (web pages, e-mails, tweets, SMS, etc.). However, the multitude and the variety of these data, as well as the regular emergence of new forms of writing, make difficult the automatic extraction of information from such corpora.To meet these challenges, we propose, in this thesis, new text mining approaches allowing the automatic identification of variants of spatial entities and relations from textual data of the mediated communication. These approaches are based on three main contributions that provide intelligent navigation methods. Our first contribution focuses on the problem of recognition and identification of spatial entities from short messages corpora (SMS, tweets) characterized by weakly standardized modes of writing. The second contribution is dedicated to the identification of new forms/variants of spatial relations from these specific corpora. Finally, the third contribution concerns the identification of the semantic relations associated withthe textual spatial information.
154

Movement Pattern Mining over Large-Scale Datasets

Orakzai, Faisal Moeen 01 April 2019 (has links) (PDF)
Movement pattern mining involves the processing of movement data to understand the mobility behaviour of humans/animals. Movement pattern mining has numerous applications, e.g. traffic optimization, event planning, optimization of public transport and carpooling. The recent digital revolution has caused a wide-spread use of smartphones and other devices equipped with GPS. These devices produce a tremendous amount of movement data which contains valuable mobility information. Many interesting mobility patterns and algorithms to mine them have been proposed in recent years to mine different types of mobility behaviours, e.g. convoy, flock, group, swarm or platoon, etc. The drastic increase in the volumes of data being generated limits the use of these algorithms in the mining of movement patterns on real-world data sizes because of their lack of scalability.This thesis deals with three aspects of movement pattern mining, i.e. scalability, efficiency, and real-timeliness with a focus on convoy pattern mining. A convoy pattern is a group of objects moving together for a certain period. Mining of convoy pattern involves clustering of the movement dataset at each timestamp and then merging the clusters to form convoys. Clustering the whole dataset is a limiting factor in the scalability of existing algorithms. One way to solve the scalability problem is to mine convoys in parallel. Parallel mining can be done either using the existing distributed spatiotemporal data processing system like Parallel Secondo or by using a general distributed data processing system. We first test the scalability behaviour of Parallel Secondo for mining movement patterns and conclude that it is not an industrial grade system and its scalability is limited. An essential part of designing distributed data processing algorithms is the data partitioning strategy. We study three different data partitioning strategies, i.e. Object-based, spatial and temporal. We analyze their suitability to convoy pattern mining based on 5 properties, i.e. data exchange, data redundancy, partitioning cost, disk seeks and data ordering. Our study shows that the temporal partitioning strategy is best suited for convoy mining as it is easily parallelizable and less complicated. The observations in our study also apply to other movement pattern mining algorithms, e.g. flock, group or platoon, etc.Based on the temporal partitioning strategy, we propose a generic distributed shared nothing convoy mining algorithm called DCM which is linearly scalable concerning the data size, data density and the number of nodes. DCM can be implemented using any distributed data processing framework. For our experiments, we implemented the algorithm using the Hadoop MapReduce framework. It performs better than the existing sequential algorithms, i.e. CuTs family of algorithms by an order of magnitude on different computing architectures, e.g. single x86 machine, multi-core cluster with NUMA architecture and multi-node SMP clusters. Although DCM is a scalable distributed algorithm which can process huge datasets, the cost of maintaining the cluster is high. Also, the heavy computation it incurs because of the requirement of clustering the whole dataset is not resource-efficient.To solve the efficiency problem of DCM, we propose a new sequential algorithm called k/2-hop which even being a sequential algorithm can perform orders of magnitude faster than the existing state-of-the-art sequential as well as distributed algorithms. The main strength of the algorithm is its pruning capability. Our experiments show that it can prune up to 99% of the data. k/2-hop uses a notion of benchmark points which are timestamps separated by k/2 timestamps where k is the minimum length of the convoys to be mined. We prove that to be able to mine maximal convoys; we need to cluster the data belonging to the benchmark points only. For the timestamps between two consecutive benchmark points, we propose an efficient mining algorithm called the Hop Window Mining Tree (HWMT). HWMT clusters the data corresponding to only those objects that are part of a cluster in the benchmark points. k/2-hop is a batch algorithm that can mine convoys very fast, but we only get the result when the complete dataset has been processed. Also, it requires the data to be indexed for better performance and thus cannot be used in real-time scenarios. We propose a streaming variant of the k/2-hop algorithm which does not require the input dataset to be indexed and can process a stream of data. It outputs the mined convoys as and when they are discovered. The streaming k/2-hop algorithm is very memory efficient and can process data that is many times bigger than the memory made available to the algorithm. We show through experiments that if we include the data loading and indexing time in the runtime of the k/2-hop algorithm, streaming k/2-hop is the fastest convoy mining algorithm to date. Convoy pattern is part of a bigger category of co-movement patterns, and most of the observations (if not all) made in this thesis about convoy pattern mining also apply to other patterns of the category such as flock, group or platoon, etc. This applicability means that a generic batch and streaming distributed co-movement pattern mining framework can be build using the k/2 technique. / Doctorat en Sciences de l'ingénieur et technologie / info:eu-repo/semantics/nonPublished
155

Modèles et méthodes pour l'information spatio-temporelle évolutive / Models and methods for handling of evolutive spatio-temporal data

Plumejeaud, Christine 22 September 2011 (has links)
Cette thèse se situe dans le domaine de la modélisation spatio-temporelle, et nos travaux portent plus particulièrement sur la gestion de l'information statistique territoriale. Aujourd'hui, la mise à disposition d'un grand volume d'informations statistiques territoriales par différents producteurs (Eurostat, l'INSEE, l'Agence Européenne de l'Environnement, l'ONU, etc.) offre une perspective d'analyses riches, permettant de combiner des données portant sur des thématiques diverses (économiques, sociales, environnementales), à des niveaux d'étude du territoire multiples : du local (les communes) au global (les états). Cependant, il apparaît que les supports, les définitions, les modalités de classification, et le niveau de fiabilité de ces données ne sont pas homogènes, ni dans l'espace, ni dans le temps. De ce fait, les données sont difficilement comparables. Cette hétérogénéité est au cœur de notre problématique, et pour lui faire face, c'est-à-dire l'appréhender, la mesurer et la contrôler, nous faisons dans cette thèse trois propositions pour permettre in fine une exploitation avisée de ce type de données. La première proposition a pour cible le support de l'information statistique territoriale, et cherche à rendre compte à la fois de son caractère évolutif et de son caractère hiérarchique. La deuxième proposition traite du problème de variabilité sémantique des valeurs statistiques associées au support, au moyen de métadonnées. Nous proposons un profil adapté du standard ISO 19115, facilitant l'acquisition de ces métadonnées pour des producteurs de données. La troisième proposition explore la mise à disposition d'outils pour analyser et explorer ces informations dans un mode interactif. Nous proposons une plate-forme dédiée aux analyses statistiques et visant à repérer des valeurs exceptionnelles (outliers en anglais), et à les mettre en relation avec leur origine, et les modalités de leur production. / This thesis is in the field of spatiotemporal modelling, and our work focuses specifically on the management of territorial statistical information. Today, the availability of large amounts of statistical information by different regional producers (Eurostat, INSEE, the European Environment Agency, the UN, etc..) offers a rich analytical perspective, by the combination of data on various topics (economic, social, environmental), at various levels of study: from the local (municipalities) to global (states). However, it appears that the spatial supports, the definitions, the various classifications and the reliability level of those data are very heterogeneous. This heterogeneity is at the core of our problem. In order to cope with that, that is to say to measure, control and analyse this heterogeneity, we are drawing three proposals allowing for a wiser exploitation of this kind of data. The first proposal aims at taking into account the change of the support through the time, modelling both the evolutive aspect of the territories and their hierarchical organisation. The second proposal deals with the semantic variability of the data values associated to this support, through the use of metadata. A profile of the ISO 19115 standard is defined, in order to ease the edition of those metadata for data producers. The last proposal defines a platform dedicated to spatiotemporal data exploration and comparison. In particular, outliers can be discovered though the use of statistical methods, and their values can be discussed and documented further through the use of metadata showing their origin and how they have been produced.
156

Evaluation de la contamination atmosphérique des écosystèmes en utilisant la composition isotopique du plomb et du mercure dans les lichens / Assessment of the atmospheric contamination of the ecosystems using the isotopic composition of lead and mercury in lichens

Barre, Julien 16 December 2013 (has links)
La signature isotopique du plomb (Pb) et du mercure (Hg) a été étudiée dans les lichens épiphytes des Pyrénées-Atlantiques. Un échantillonnage intégré et spatialisé à l’aide d’un système d’information géographique (SIG) a été mis en place afin de prendre en compte la diversité du territoire (occupation des sols, forêts, agriculture, industries et zones urbaines). A méso-échelle (département des Pyrénées-Atlantiques), la composition isotopique permet de différencier les zones impactées par les activités anthropiques mais aussi de discriminer l’origine de la contamination qu’elle soit de type industrielle ou urbaine. A l’échelle locale, la signature isotopique du Hg et Pb dans des lichens et des mousses prélevés dans la forêt d’Iraty (zone frontalière Franco-espagnole) a permis d’évaluer le type de dépôts accumulés dans ces différents bioaccumulateurs atmosphériques et le potentiel de ce nouvel outil pour le suivi des dépôts atmosphériques dans les écosystèmes éloignés. Enfin, sur la zone mercurifère d’Almadén (Castella la Mancha, Espagne) la signature isotopique du Hg dans les lichens et les sédiments apparait comme un outil pertinent pour étudier le transfert du Hg provenant de l’extraction minière vers les hydrosystèmes et l’atmosphère. / The isotopic signature of lead (Pb) and mercury (Hg) was measured in epiphytic lichens from Pyrénées-Atlantiques. An integrated and spatialized sampling was developed using geographical information system (GIS) to take into account the diversity of the territory (land-use, forest, agriculture, industries and urban areas). At meso-scale (county, Pyrenees-Atlantiques) the isotopic composition allows to differenciate areas impacted by anthropegenic activities and discriminate the origin of the contamination that it of industrial or urban type. At local scale, the isotopic signature of Hg and Pb in lichens and mosses sampled in Iraty forest (Franco-Spanish border) allowed to evaluate the kind of atmospheric deposits in these atmospheric bio-monitors and the potential of this new tool for the monitoring of atmospheric depositsin remote ecosystems. Finally, on the mercurifere area of Almadén (Castella la Mancha, Spain) the isotopic fingerprint of Hg in lichens and sediments appears to be a relevant tool to study the transfer of Hg from mining activities to hydrosystems and atmosphere.
157

Supports de communications ubiquitaires pour les réseaux à l'échelle de la ville / Ubiquitous communications for smart city networks

Brunisholz, Pierre 10 July 2019 (has links)
Le Wi-Fi est omniprésent dans les villes, que ce soit par le nombre grandissant de point d'accès public, ou la déploiement massif de points d'accès privés, sous la forme de boxes d'opérateurs notamment. Si nous supposons que l'ensemble de ces points d'accès soient utilisables afin de permettre à n'importe quel appareil d'accéder à Internet, alors nous aurions potentiellement une couverture réseau sur l'ensemble de la ville. Ce postulat nous a conduit à nous demander si le Wi-Fi pouvait être utilisé comme réseau à l'échelle urbaine. Ce réseau pourrait plus particulièrement être utilisé dans un contexte de mobilité. Or, le Wi-Fi n'a pas été conçu dans le but de gérer des utilisateurs mobiles,et les appareils doivent régulièrement changer de points d'accès lorsqu'ils n'ont plus de connectivité. Ce mécanisme, appelé handover, peut être long car les appareils doivent d'abord constater leurs pertes de connectivité avant de commencer à chercher le prochain point d'accès auquel s'associer. Il peut être particulièrement long pour des appareils comme les smartphones car ces derniers sont contraint en énergie et n'appliquent donc pas une politique de handover aggressive. Dans ce contexte nous avons cherché à caractériser les applications possible sur le Wi-Fi lorsqu'un utilisateur est mobile, en fonction de la durée de handover de son équipement, de sa vitesse et de la densité des points d'accès présents dans la ville. Nous avons constaté que pour les utilisateurs se déplaçant à faible allure, l'impact de la durée de handover est faible au regard de la connectivité totale, ce qui leur permet d'utiliser des applications gourmandes en terme de bande passante tant que celles-ci possèdent un certain degré de tolérances aux déconnexions. Cependant lorsque la vitesse de déplacement augmente, la durée de handover dégrade progressivement la connectivité des utilisateurs, de telle sorte que ceux ayant une allure élevée ne peuvent plus espérer utiliser les différents points d'accès. En effet, les équipements passent alors plus de temps à effectuer des handovers qu'à échanger des données applicatives. Les retransmissions jouant un rôle important dans la durée de handover, nous avons étudié finement leurs fonctionnement en 802.11.Pour cela nous avons mis en place un banc d'essai nous permettant d'observer les séquences de messages retransmis par différentes implémentations de 802.11lorsque l'on fait subitement disparaitre le point d'accès. Nous avons comparé ces séquences avec celle décrite dans le standard, et nous avons constaté que le nombre de retransmissions maximal ainsi que l'augmentation de la fenêtre de contention n'étaient pas respectés. De plus, ces implémentations passent beaucoup de temps à tenter de retransmettre avant d'initier leurs procédures de handover. Les retransmissions sont aussi utilisées dans les algorithmes d'adaptation de débits afin de déterminer si le lien se dégrade. Or, lors de la contention, le nombres de pertes augmente avec la plus forte probabilité de collisions. Afin d'observer l'impact des retransmissions sur les algorithmes d'adaptation de débits lors de la contention, nous avons mis en place un banc d'essai composé d'une trentaine de stations identiques. Nous avons constaté que l'algorithme de contrôle de débit utilisé est sous optimal par rapport à l'utilisation d'une modulation unique. Enfin, nous nous sommes intéressés à l'utilisation d'un tel réseau à l'échelle de la ville afin d'acheminer des données ayant une forte validité spatiale. Nous avons alors proposé un schéma d'adressage géographique exploitant l'infrastructure d'Internet. Il permet à la fois d'obtenir un découpage hiérarchique du monde, et d'avoir un préfixe hiérarchique des adresses, similaire à celui de CIDR. Nous montrons que ce schéma d’adressage peut être utilisé dans des adresses multicast pour envoyer des messages à destination de zones géographiques précises (surface minimale d'un mètre carré). / Wi-Fi is everywhere in cities, whether through the growing number of publicaccess points, or the massive private access points deployment, in the formof set-top boxes for the major part.If we assume that all these access points are usable in order to allow anydevice to access the Internet, then we would potentially have network coveragethroughout the city.This assumption led us to wonder if Wi-Fi could be used as a city-wide network.This network could, more specifically, be used in a context of mobility.However, Wi-Fi was not designed to manage mobile users, and devices have tooften change their access points when they no longer have connectivity.This mechanism, called handover, can be long because devices must first detecttheir connectivity losses before they can start looking for the next accesspoint to associate with.It can be particularly long for devices such as smartphones because they areenergy constrained and therefore do not apply an aggressive handover policy.In this context we tried to characterize the possible Wi-FI applications for amoving user, considering the handover duration, the user speed and the accesspoints density in the city.We found that for slow-moving users, the impact of the handover is smallcompared to the their overall connectivity.This allows them to use bandwidth-intensive applications as long as they areto some extend delay-tolerant.However, when the user’s speed increases, the impact of handover’s durationgradually degrades the user’s connectivity, so that high speed users can nolonger expect to use different access points.Fast moving devices spend more time performing handovers with new access pointsthan transmitting application data.Retransmissions play an important role in the duration of handover.In order to study in detail the retransmissions in 802.11, we have set up atestbed allowing us to observe the sequences of retransmitted messages usingdifferent implementations of 802.11 when we suddenly make the access pointdisappear.We compared these sequences with the one described in the standard, and we wefound that the maximum number of retransmissions as well as the growth in thecontention window were not respected.In addition, these implementations spend a lot of time trying to retransmitbefore initiating their handover procedures.Retransmissions are also used in the rate control algorithms to determine ifthe link is deteriorating.However, during contention, the number of losses increases with the higherprobability of collisions.In order to observe the impact of retransmissions on the rate controlalgorithms during contention, we have set up a testbed composed of about thirtyidentical stations.We found that the rate control algorithm used underperforms compared to theuse of a single modulation.Finally, we proposed a geographical addressing scheme compliant with theInternet infrastructure.It allows to obtain both a hierarchical division of the world, and ahierarchical prefix for the addresses, similar to the one used in the CIDRformat.We show that this addressing scheme can be used in multicast addresses to sendmessages to specific geographical areas (minimum area of one square meter).
158

Vers une infographie de l'ambiance sonore urbaine

Arlaud, Blaise 29 January 2001 (has links) (PDF)
Partant du constat que les cartes de bruit actuelles (quantitatives) doivent nécessairement inclure des données qualitatives pour être plus opérantes, ce travail propose d'explorer quelques pistes pour montrer comment on peut représenter les qualités d'une situation sonore urbaine sur une carte. S'appuyant sur les trois caractères fondamentaux de l'espace sonore humain {temporalité, discrétion, métabole), ainsi que sur les principales approches théoriques de la qualité sonore développées à ce jour (les objets sonores, les effets sonores, les notions d'environnement, de milieu et de paysage sonores, les ambiances sonores), il cherche à voir comment une carte des qualités sonores peut être possible. Pour ce faire, il propose de multiples cartes, destinées chacune à aborder certains des problèmes cités précédemment, et réalisées lors de deux étapes de recherche successives (l'une sur support papier et l'autre sur support informatique, SIG). Par un bref retour analytique, il cherche ensuite à voir ce qui a pu être réalisé (introduction du temps sur la carte, multiples aspects qualitatifs traités, etc.), ce qui s'est avéré irréalisable (représentation exhaustive des effets ou des ambiances sonores), ainsi que les limites des systèmes proposés (en particulier en ce qui concerne la répartition spatiale des phénomènes et l'approche sensible des individus). Sur la base de ces expériences, il esquisse alors une première ébauche de ce que pourrait être un cadre théorique et méthodologique global de la représentation des qualités de l'espace sonore humain. Et enfin, il propose quelques nouvelles pistes de recherche susceptibles de faire avancer l'étude de la cartographie sonore qualitative.
159

Gestion de la Mise à Jour de Données Géographiques Répliquées

Pierkot, Christelle 02 July 2008 (has links) (PDF)
De nos jours, l'information géographique constitue une ressource incontournable dans un contexte de prise de décision et les données numériques spatiales sont de plus en plus fréquemment exploitées comme support et aide à la décision par de nombreuses organisations.<br />L'institution militaire utilise elle aussi les données spatiales comme soutien et aide à la décision. A chaque étape d'une mission, des informations géographiques de tous types sont employées (données numériques, cartes papiers, photographies aériennes...) pour aider les unités dans leurs choix stratégiques. Par ailleurs, l'utilisation de réseaux de communication favorise le partage et l'échange des données spatiales entre producteurs et utilisateurs situés à des endroits différents. L'information n'est pas centralisée, les données sont répliquées sur chaque site et les utilisateurs peuvent ponctuellement être déconnectés du réseau, par exemple lorsqu'une unité mobile va faire des mesures sur le terrain.<br />La problématique principale concerne donc la gestion dans un contexte militaire, d'une application collaborative permettant la mise à jour asynchrone et symétrique de données géographiques répliquées selon un protocole à cohérence faible optimiste. Cela nécessite de définir un modèle de cohérence approprié au contexte militaire, un mécanisme de détection des mises à jour conflictuelles lié au type de données manipulées et des procédures de réconciliation des écritures divergentes adaptées aux besoins des unités participant à la mission.<br />L'analyse des travaux montre que plusieurs protocoles ont été définis dans les communautés systèmes (Cederqvist :2001 ; Kermarrec :2001) et bases de données (Oracle :2003 ; Seshadri :2000) pour gérer la réplication des données. Cependant, les solutions apportées sont souvent fonctions du besoin spécifique de l'application et ne sont donc pas réutilisables dans un contexte différent, ou supposent l'existence d'un serveur de référence centralisant les données. Les mécanismes employés en information géographique pour gérer les données et les mises à jour ne sont pas non plus appropriés à notre étude car ils supposent que les données soient verrouillées aux autres utilisateurs jusqu'à ce que les mises à jour aient été intégrée (approche check in-check out (ESRI :2004), ou utilisent un serveur centralisé contenant les données de référence (versionnement : Cellary :1990).<br />Notre objectif est donc de proposer des solutions permettant l'intégration cohérente et autant que possible automatique, des mises à jour de données spatiales dans un environnement de réplication optimiste, multimaître et asynchrone.<br />Nous proposons une stratégie globale d'intégration des mises à jour spatiales basée sur une vérification de la cohérence couplé à des sessions de mises à jour. L'originalité de cette stratégie réside dans le fait qu'elle s'appuie sur des métadonnées pour fournir des solutions de réconciliation adaptées au contexte particulier d'une mission militaire.<br />La contribution de cette thèse est double. Premièrement, elle s'inscrit dans le domaine de la gestion de la mise à jour des données spatiales, domaine toujours très actif du fait de la complexité et de l'hétérogénéité des données (Nous limitons néanmoins notre étude aux données géographiques vectorielles) et de la relative «jeunesse » des travaux sur le sujet. Deuxièmement, elle s'inscrit dans le domaine de la gestion de la cohérence des données répliquées selon un protocole optimiste, en spécifiant en particulier, de nouveaux algorithmes pour la détection et la réconciliation de données conflictuelles, dans le domaine applicatif de l'information géographique.
160

Spatialisation de l'information : une aide à l'analyse hydraulique et paysagère développée lors de la réhabilitation des sites post-industriels - Cas des réaménagements des gravières en eau en milieu alluvionnaire

Mimoun, Djamel 06 February 2004 (has links) (PDF)
Il s'agit de concevoir et de réaliser une chaîne d'outils pour évaluer des projets de réaménagement de gravières en eau en milieu alluvionnaire qui soit en accord avec les dispositifs prévus par le législateur. Ce dernier est particulièrement sensible aux impacts de la future gravière sur les écoulements d'eau souterrains et superficiels ainsi que sur la modification des paysages. Une réhabilitation réussie des sites après exploitation repose aujourd'hui sur les principes, désormais bien connus, de réaménagement intégré des gravières. Les modèles hydrauliques et hydrodynamiques, couplés à une base de données géographiques de type S.I.G., simulent la réponse de l'aquifère à l'aménagement, mettant ainsi en évidence les paramètres clés à prendre en compte. Les paramètres paysagers, issus de l'écologie du paysage, sont déterminés en utilisant les propriétés topologiques et géométriques des objets. La valeur générale d'une telle composition d'outils nécessite de recourir à une analyse multicritère pour décomposer le système complexe étudié. Il s'agit d'organiser et de hiérarchiser ces critères en tenant compte de leurs relations essentielles. La contribution de chaque critère y est appréciée au moyen d'une pondération effectuée, eu égard à l'impossibilité d'en acquérir une mesure « mathématiquement » précise, au moyen d'une démarche d'expertise contrôlée par une évaluation de la cohérence. Ainsi constituée, cette arborescence sert de support pour évaluer l'adéquation entre la vocation future du plan d'eau telle qu'elle est envisagée par l'aménageur et les potentialités « écologiques » réelles du milieu. Le site d'application se localise en bordure du fleuve Loire, au coeur de la plaine du Forez ( 42-France). Sur ce territoire, deux gestionnaires principaux sont impliqués : d'une part un exploitant de granulats qui a délaissé le lit mineur du fleuve pour le lit majeur, et, d'autre part une association de protection de la nature qui a réhabilité les plans d'eau laissés après exploitation, en s'appuyant sur le savoir-faire de l'exploitant.

Page generated in 0.0728 seconds