• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 25
  • 2
  • Tagged with
  • 27
  • 27
  • 20
  • 17
  • 16
  • 12
  • 9
  • 6
  • 6
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Proposition d’un cadre conceptuel d’arrimage des savoirs géographiques locaux dans les macro-observatoires : cas de la région DIANA Madagascar

Randrianarivelo, Mamy Dina 20 April 2018 (has links)
Le recours aux données géographiques issues des macro-observatoires s’impose comme la solution incontournable pour les agences de développement et bailleurs de fonds internationaux en quête de données structurées et facilement accessibles. Ces données sont pourtant conçues selon une vision globalisante qui ne reflète pas ou pas suffisamment les contextes spécifiques locaux sur lesquels ces acteurs doivent intervenir. Dans les pays du Sud en particulier, les savoirs géographiques locaux constituent le plus souvent la seule source de données terrain disponible. Mais leur fiabilité et leur utilité sont souvent questionnées, en comparaison des données statistiques ou cartographiques des macro-observatoires. En effet, ils ne sont que peu ou pas formalisés. Ils nécessitent des processus de collecte de terrain complexes à mettre en œuvre. Leur interprétation est souvent difficile, en particulier pour les acteurs occidentaux. Ce travail de recherche a pour objectif la conception d’un cadre d’intégration des savoirs géographiques locaux dans les macro-observatoires. Il repose concrètement sur l’observation, l’analyse et la mise en relief des points communs et des différences des deux types de savoirs géographiques, à partir du cas de la région de DIANA à Madagascar; et plus précisément des savoirs locaux issues d’une démarche de Zonage À Dire d’Acteurs (ZADA) et des données globales de l’observatoire « Harvest Choice » de l’International Food Policy Research Institute (IFPRI). Mots-clés : Macro-observatoires, données locales, données globales, infrastructure de données spatiales, intégration des données, connaissances locales, connaissances experts, SIG.
2

Développement d'une approche géosémantique intégrée pour ajuster les résultats des requêtes spatiotemporelles dans les bases de données géospatiales multidimensionnelles évolutives

Bakillah, Mohamed 12 April 2018 (has links)
Dans le domaine forestier, la gestion des ressources naturelles se base sur les données recueillies lors des inventaires portant sur la représentation spatiale d'un même territoire à différentes époques. Au fil des inventaires, l'évolution naturelle, les interventions humaines, l'évolution des modes d'acquisition, des spécifications et des normes forestières créent une hétérogénéité spatiale et sémantique entre les différentes bases de données. Dans un processus décisionnel, ces données et spécifications sont structurées d'une façon multidimensionnelle dans des cubes de données géospatiales. Par conséquent, la structure multidimensionnelle est également amenée à évoluer, ce qui affecte la réponse aux requêtes spatiotemporelles. Dans le domaine forestier, la problématique de l'évolution de structure se traduit par l'impossibilité d'effectuer des analyses spatiotemporelles, par exemple sur l'évolution du volume de bois de certaines essences ou l'évolution des épidémies, affectant directement la prise de décision dans la gestion forestière. Cette problématique exige de concevoir de nouvelles solutions capables de préserver les liens entre les membres des différentes structures. Cependant, les solutions proposées ne tiennent pas compte de manière explicite et simultanée de l'évolution sémantique et géométrique de la structure. Afin d'apporter une solution plus adaptée aux réalités des phénomènes spatiotemporels, nous avons développé une approche géosémantique intégrée pour la gestion de l'évolution de la structure du cube afin d'ajuster la qualité de la réponse à la requête spatiotemporelle et ainsi offrir un meilleur support à la prise de décision. L'approche proposée définit une méthode de rétablissement des liens entre des versions du cube. Sur le plan sémantique, nous rétablissons les liens en employant une fonction de similarité sémantique basée sur l'ontologie et qui tient compte du plus fin niveau de définition des concepts. Au niveau géométrique, notre approche se base sur une méthode d'indexation QuadTree pour constituer une matrice de correspondances spatiales entre les géométries des différentes époques. Les liens résultants sont intégrés dans une méthode de transformation matricielle afin de pouvoir répondre d'une manière plus adaptée à des requêtes spatiotemporelles.
3

Intégration de la structure matricielle dans les cubes spatiaux

McHugh, Rosemarie 13 April 2018 (has links)
Dans le monde de la géomatique, la fin des années 1990 a été marquée par l'arrivée de nouvelles solutions décisionnelles, nommées SOLAP. Les outils SOLAP fournissent des moyens efficaces pour facilement explorer et analyser des données spatiales. Les capacités spatiales actuelles de ces outils permettent de représenter cartographiquement les phénomènes et de naviguer dans les différents niveaux de détails. Ces fonctionnalités permettent de mieux comprendre les phénomènes, leur distribution et/ou leurs interrelations, ce qui améliore le processus de découverte de connaissances. Toutefois, leurs capacités en termes d'analyses spatiales interactives sont actuellement limitées. Cette limite est principalement due à l'unique utilisation de la structure de données géométrique vectorielle. Dans les systèmes d'information géographique (SIG), la structure de données matricielle offre une alternative très intéressante au vectoriel pour effectuer certaines analyses spatiales. Nous pensons qu'elle pourrait offrir une alternative intéressante également pour les outils SOLAP. Toutefois, il n'existe aucune approche permettant son exploitation dans de tels outils. Ce projet de maîtrise vise ainsi à définir un cadre théorique permettant l'intégration de données matricielles dans les SOLAP. Nous définissons les concepts fondamentaux permettant l'intégration du matriciel dans les cubes de données spatiaux. Nous présentons ensuite quelques expérimentations qui ont permis de les tester et finalement nous initions le potentiel du matriciel pour l'analyse spatiale dans les outils SOLAP.
4

Elaboration d'un moteur de traitement des données spatiales massives vectorielles optimisant l'indexation spatiale

Engélinus, Jonathan 24 April 2018 (has links)
Les données massives se situent au coeur de beaucoup d’enjeux scientifiques et sociétaux, et leur volume global ne cesse de croître. Il devient donc crucial de disposer de solutions permettant leur traitement et leur analyse. Hélas, alors qu’une majorité de ces données intègrent une composante spatiale vectorielle, peu de systèmes sont à même de gérer cette dernière. En outre, les rares prototypes qui s’y essaient respectent mal les standards ISO et les spécifications OGC et présentent des performances limitées. La présente recherche visait donc à déterminer comment gérer les données spatiales massives vectorielles de façon plus complète et efficiente. Il s’agissait en particulier de trouver une façon de les indexer avec une bonne scalabilité horizontale, d’assurer leur compatibilité avec la norme ISO-19125 et ses extensions, et de les rendre accessibles depuis les logiciels SIG. Il en résulte le système Elcano, une extension spatiale au système de gestion de données massives Spark qui fournit des performances accrues par rapport aux solutions du marché. / Big data are in the midst of many scientific and economic issues. Furthermore their volume is continuously increasing. As a result, the need for management and processing solutions has become critical. Unfortunately, while most of these data have a vectorial spatial component, almost none of the current systems are able to manage it. In addition, the few systems who try either do not respect the ISO standards and OGC specifications or show poor performances. The aim of this research was then to determine how to manage the vectorial massive data more completely and efficiently. The objective was to find a scalable way of indexing them, ensuring their compatibility with ISO-19125 and its extensions, and making them accessible from GIS. The result is the Elcano system. It is an extension of the massive data management system Spark which provides increased performance compared to current market solutions.
5

Approche formelle pour une meilleure identification et gestion des risques d'usages inappropriés des données géodécisionnelles

Lévesque, Marie-Andrée 20 April 2018 (has links)
Tableau d’honneur de la Faculté des études supérieures et postdoctorales, 2008-2009 / L’utilisation croissante de l’information géographique a soulevé d’importantes inquiétudes au cours de la dernière décennie quant aux risques d’usages inappropriés des données géospatiales, particulièrement par des usagers profanes ou non experts en référence spatiale. Ces inquiétudes ont récemment augmenté avec l’arrivée de nouvelles technologies simples et rapides, dont la nouvelle catégorie d’outils d’aide à la décision dénommée SOLAP (Spatial On-Line Analytical Processing). En effet, les nouvelles capacités d’analyse offertes par ces outils ouvrent la porte à un plus grand nombre d’utilisateurs qui peuvent potentiellement ne pas tenir compte adéquatement des forces, faiblesses et qualités inhérentes aux données analysées. En réponse à cette problématique, ce projet de maîtrise propose une approche générique, prenant en compte les obligations juridiques des fournisseurs de données, permettant d’identifier et de gérer des risques d’usages inappropriés des données géodécisionnelles utilisées par les applications SOLAP. Les principes énoncés pourraient éventuellement être transposés aux systèmes non décisionnels (SIG).
6

Traitements spatiaux dans un contexte de flux massifs de données

Hotte, Sylvain 31 August 2018 (has links)
Au cours des dernières années, nous avons constaté une augmentation du volume d’information sous la forme de flux de données. Cette augmentation rend le traitement de ces flux par des méthodes traditionnelles non performant, voire impossible. De plus, la mise à jour rapide des informations suscite un intérêt grandissant pour leurs traitements en temps réel afin d’en tirer une plus grande valeur. Ces données massives étant souvent géoréférencées, il devient donc pertinent d’offrir des méthodes permettant d’effectuer des traitements spatiaux sur ces flux massifs de données. Cependant, le sujet des traitements spatiaux dans un contexte de flux massifs a très peu été abordé dans la recherche scientifique. Les études qui ont été faites traitaient toujours de flux massif de données en relation avec des données persistantes. Aucune recherche ne portait sur des traitements spatiaux ayant plusieurs flux massifs de données spatiales. La problématique est de déterminer des méthodes de traitements pour des opérateurs spatiaux dont les paramètres sont issus de flux massifs de données spatiales. Notre objectif général consiste à explorer les caractéristiques permettant l’élaboration de tels traitements et d’offrir des pistes de solution. Nos travaux de recherche ont fait ressortir les facteurs influençant l’adaptation des traitements spatiaux dans un contexte de traitement en parallèle de flux massif de données. Nous avons déterminé que les méthodes d’adaptation peuvent se décliner en classes sur la base des caractéristiques de l’opérateur spatial, mais aussi sur la nature des données et la façon dont elles sont rendues disponibles. Nous avons proposé des méthodes générales de traitement pour chacune des classes identifiées afin de guider les stratégies d’adaptations. Pour la classe dont le traitement d’opérateur binaire possède des opérandes issus de flux massifs, nous avons détaillé une méthode d’adaptation permettant l’utilisation d’opérateurs spatiaux. Afin de tester l’efficacité et la validité de la méthode proposée, nous avons appliqué cette méthode à un opérateur relationnel d’intersection et un opérateur d’analyse de proximité, soit les "k" plus proches voisins. Ces tests ont permis de vérifier la validité et de quantifier l’efficacité des méthodes proposée par rapport à l’évolution, ou scalabilité, horizontale du système (ajout du nombre de cœurs). Nos tests ont aussi permis de quantifier l’effet de la variation du niveau de partitionnement sur les performances du débit de traitement. Notre contribution permettra, nous l’espérons, de servir de point de départ pour l’adaptation d’opérateurs spatiaux plus complexes. / In recent years we have witnessed a significant volume increase of data streams. The traditional way of processing this information is rendered inefficient or even impossible by this high volume of data. There is an increase in the interest of real time data processing in order to derive greater value of the data. Since those data are often georeferenced, it becomes relevant to offer methods that enable spatial processing on big data streams. However, the subject of spatial processing in a context of Big Data stream has seldom been discussed in scientific research. All the studies that have been done so far involve persistent data and none of them deals with the case where two Big Data streams are in relation. The problem is therefore to determine how to adapt the processing of spatial operators when their parameters derive from two Big Spatial Data stream. Our general objective is to explore the characteristics that allow the development of such analysis and to offer potential solutions. Our research has highlighted the factors influencing the adaptation of spatial processing in a context of Big Data stream. We have determined that adaptation methods can be categorized in different categories according to the characteristics of the spatial operator but also on the characteristics of the data itself and how it is made available. We proposed general methods of spatial processing for each category in order to guide adaptation strategies. For one of these categories, where a binary operator has both operands coming from Big Data stream, we have detailed a method allowing the use of spatial operators. In order to test the effectiveness and validity of the proposed method, we applied this method to an intersection operator and to a proximity analysis operator, the "k" nearest neighbors. These tests made it possible to check the validity and to quantify the effectiveness of the proposed methods in relation to the system evolution or scalability, i.e. increasing the number of processing cores. Our tests also made it possible to quantify the effect of the variation of the partitioning level on the performances of the treatment flow. Our contribution will, hopefully, serves as a starting point for more complex spatial operator adaptation.
7

Analyse et expérimentations des méthodes de création de deepfake dans le domaine géospatial et conception d'une méthode de détection adaptée

Meo, Valentin 20 November 2023 (has links)
Titre de l'écran-titre (visionné le 13 novembre 2023) / Du fait de leur danger, les deepfakes (ou hypertrucage en français) sont devenus un sujet de société. Cependant, aucune étude conséquente n'a été réalisée sur les deepfakes appliqués au domaine géospatial : l'hypertrucage géospatial. Ce travail commence par faire un état de l'art des technologies génératives permettant la modification partielle d'images, aussi appelées techniques d'« inpainting » en anglais. Grâce à celles-ci, il nous a été possible de concevoir des deepfakes d'imagerie aérienne d'une grande qualité. Afin de tester leur robustesse, des techniques de détection de falsification classiques ont été testées. Ces méthodes se sont révélées utiles mais pas suffisantes. Une méthode originale de détection spécialement adaptée aux particularités des images géospatiales a donc finalement été proposée. Les résultats très satisfaisants obtenus avec cette méthode, permettent de montrer que le contrôle de l'information n'est pas la seule solution au problème de la désinformation. Ce travail pourrait ainsi être utilisé par un public large allant des agences de renseignement, journalistes ou citoyens concernés soucieux de détecter les falsifications provenant de différentes entités.
8

Développement d'une nouvelle approche d'extraction du réseau de surface à partir d'un nuage de points LiDAR massif basée sur la théorie de Morse

Dahbi, Aymane 16 January 2024 (has links)
Titre de l'écran-titre (visionné le 11 janvier 2024) / Aujourd'hui, la cartographie des réseaux hydrographiques est un sujet important pour la gestion et l'aménagement de l'espace forestier, la prévention contre les risques d'inondation, etc. Les données sources pour cartographier les cours d'eau sont des nuages de points obtenus par des lidars aéroportés. Cependant, les méthodes d'extraction des réseaux usuelles nécessitent des opérations de découpage, de rééchantillonnage et d'assemblage des résultats pour produire un réseau complet, altérant la qualité des résultats et limitant l'automatisation des traitements. Afin de limiter ces opérations, une nouvelle approche d'extraction est considérée. Cette approche propose de construire un réseau de crêtes et de talwegs à partir des points lidar, puis transforme ce réseau en réseau hydrographique. Notre recherche consiste à concevoir une méthode d'extraction robuste du réseau adaptée aux données massives. Ainsi, nous proposons d'abord une approche de calcul du réseau adaptée aux surfaces triangulées garantissant la cohérence topologique du réseau. Nous proposons ensuite une architecture s'appuyant sur des conteneurs pour paralléliser les calculs et ainsi traiter des données massives. / Nowadays, the mapping of hydrographic networks is an important subject for forestry management and planning, flood risk prevention, and so on. The source data for mapping watercourses are point clouds obtained by airborne lidars. However, conventional network extraction methods require cutting, resampling, and assembling the results to produce a complete network, thereby altering the quality of the results, and limiting the automation of processing. In order avoid these processing steps, a new computational approach is considered. This approach involves building a network of ridges and talwegs from lidar points, and then transforming this network into a hydrographic network. Our research consists in designing a robust network extraction method adapted to massive data. First, we propose a network calculation approach adapted to triangulated surfaces, guaranteeing the network's topological consistency. We then propose a container-based architecture for parallelizing computations to handle big data processing.
9

Conception et développement d'un service Web de contexte spatial dédié aux téléphones intelligents dans le cadre de jeux éducatifs interactifs

Edoh-Alové, Djogbénuyè Akpé 18 April 2018 (has links)
Actuellement, avec l’essor de l’informatique ubiquitaire, un intérêt grandissant est porté à l’exploitation du contexte de l’utilisateur pour une adaptation des applications et de leur contenu à ses besoins et activités en temps réel, dans divers domaines (tourisme, maisons intelligents, hôpitaux). De cet intérêt résulte bon nombre de projets traitant la définition et l’élaboration de modèles de contexte et de plateformes de gestion dudit contexte. Dans le cadre du projet GéoÉduc3D, l’utilisation du contexte pour l’amélioration de l’aspect immersif et interactif de jeux éducatifs revêt un intérêt certain. Ce cadre applicatif (jeux éducatifs, réalité augmentée, téléphones intelligents) est complètement différent et amène la question de l’interopérabilité peu abordée dans les précédents travaux. Nos travaux ont donc pour objectif de concevoir et d’implémenter une solution informatique dédiée à l’acquisition et à la diffusion de contexte spatial dans un environnement multi-joueurs sur et pour des téléphones intelligents. Dans ce but, nous proposons tout d’abord une nouvelle définition et une modélisation du contexte spatial adapté à notre cadre particulier. Ensuite, nous présentons l’architecture d’un système orienté service pour la gestion de cette information contextuelle. Afin de tester notre approche, un prototype de service Web a été élaboré selon trois fonctions principales : récupération des informations auprès des téléphones intelligents ; enregistrement des données dans la base de données et interrogation flexible en mode synchrone ou asynchrone des données. Ce travail de recherche ouvre ainsi la voie à la conception et au développement d’applications de jeux éducatifs, destinées à n’importe quel type de téléphone intelligent, sensible au contexte spatial des joueurs dans un environnement multi-joueurs. / Currently, with the rise of ubiquitous computing, one is growing interest in using the user context, for adapting applications and their contents to users’ needs and activities in real time, in different fields (tourism, smart homes, and hospitals). Many projects dealing with the definition and context models and management platforms have emerged. In the GeoEduc3D project, exploiting the context to improve the immersive and interactive aspects of interactive educational games is to be explored. This particular application framework (serious games, augmented reality, smart phones) is completely different and brings the issue of interoperability, which was not really addressed in previous work. Therefore, our work aims to design and implement a solution dedicated to the acquisition and dissemination of spatial context in a multi-players environment on and for smart phones. For this purpose, we first propose a definition and modeling of spatial context. Then we define the architecture of a service-oriented system for managing that information. To test our approach, a Web service prototype was developed according to three main functions: retrieving information from smart phones, storing data in the database and query flexible synchronous or asynchronous data. This research opens the way for the design and development of context-aware serious games applications for any type of smart phone, in a multiplayer environment.
10

Évaluation de la qualité des données géospatiales : approche top-down et gestion de la métaqualité

Lévesque, Johann 13 April 2018 (has links)
Depuis l'avènement du numérique, la demande de données par les utilisateurs des systèmes d'information géographique (SIG) ne fait qu'augmenter. Les organismes utilisateurs se retrouvent souvent devant plusieurs sources de données géographiques potentielles et ils doivent alors évaluer la qualité de chaque source en fonction de leurs besoins. Pour ce faire, ces organismes pourraient faire appel à un expert en qualité qui pourrait les aider à déterminer s'il y a adéquation (i.e. qualité externe) entre les données et leurs besoins. Pour utiliser le système MUM, l'expert en qualité doit recueillir de l'information sur les jeux de données. Dans le domaine de la géomatique, cette information se retrouve généralement sous la forme de métadonnées émises par les producteurs de données. Le système MUM, développé par Devillers et al. [2004b], a été conçu initialement en fonction d'une approche bottom-up, où on utilise des métadonnées fines pour extraire des indicateurs globaux de qualité, à l'aide d'opérateurs d'agrégation typiques des outils SOLAP. Il s'agit là d'une solution qui permet de faciliter l'analyse de la qualité, particulièrement dans des contextes de données hétérogènes. Par contre, comme le mentionnent les concepteurs de MUM, le manque de métadonnées fines est un obstacle à l'utilisation du système MUM dans sa forme actuelle. L'objectif de la présente recherche a donc été d'élaborer une méthode de génération des métadonnées dite top-down. Cette méthode permet de générer, lorsque possible, les métadonnées fines (au niveau des occurrences, voire des primitives géométriques) d'un jeu de données à l'aide des métadonnées grossières et des opinions d'experts touchant un ensemble d'occurrences. Cette méthodologie amène l'expert en qualité à utiliser dans certains cas des sources de données différentes. Ceci soulève alors un problème concernant l'hétérogénéité de la fiabilité des sources utilisées pour évaluer la qualité externe. Le concept de métaqualité a été introduit pour répondre à ce problème d'hétérogénéité. Il permet en effet de quantifier le risque lié à l'imperfection de l'information contenue dans les indicateurs de qualité. L'enrichissement du système MUM a donc été réalisé grâce à la conception du modèle E-QIMM (Extented Quality Information Management Model) qui est une extension du modèle QIMM de Devillers [2004] et qui permet d'intégrer la dimension ± Métaqualité ¿ dans le processus d'évaluation de la qualité.

Page generated in 0.0929 seconds