• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 25
  • 2
  • Tagged with
  • 27
  • 27
  • 20
  • 17
  • 16
  • 12
  • 9
  • 6
  • 6
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Proposition d’un cadre conceptuel d’arrimage des savoirs géographiques locaux dans les macro-observatoires : cas de la région DIANA Madagascar

Randrianarivelo, Mamy Dina 20 April 2018 (has links)
Le recours aux données géographiques issues des macro-observatoires s’impose comme la solution incontournable pour les agences de développement et bailleurs de fonds internationaux en quête de données structurées et facilement accessibles. Ces données sont pourtant conçues selon une vision globalisante qui ne reflète pas ou pas suffisamment les contextes spécifiques locaux sur lesquels ces acteurs doivent intervenir. Dans les pays du Sud en particulier, les savoirs géographiques locaux constituent le plus souvent la seule source de données terrain disponible. Mais leur fiabilité et leur utilité sont souvent questionnées, en comparaison des données statistiques ou cartographiques des macro-observatoires. En effet, ils ne sont que peu ou pas formalisés. Ils nécessitent des processus de collecte de terrain complexes à mettre en œuvre. Leur interprétation est souvent difficile, en particulier pour les acteurs occidentaux. Ce travail de recherche a pour objectif la conception d’un cadre d’intégration des savoirs géographiques locaux dans les macro-observatoires. Il repose concrètement sur l’observation, l’analyse et la mise en relief des points communs et des différences des deux types de savoirs géographiques, à partir du cas de la région de DIANA à Madagascar; et plus précisément des savoirs locaux issues d’une démarche de Zonage À Dire d’Acteurs (ZADA) et des données globales de l’observatoire « Harvest Choice » de l’International Food Policy Research Institute (IFPRI). Mots-clés : Macro-observatoires, données locales, données globales, infrastructure de données spatiales, intégration des données, connaissances locales, connaissances experts, SIG.
2

Développement d'une approche géosémantique intégrée pour ajuster les résultats des requêtes spatiotemporelles dans les bases de données géospatiales multidimensionnelles évolutives

Bakillah, Mohamed 12 April 2018 (has links)
Dans le domaine forestier, la gestion des ressources naturelles se base sur les données recueillies lors des inventaires portant sur la représentation spatiale d'un même territoire à différentes époques. Au fil des inventaires, l'évolution naturelle, les interventions humaines, l'évolution des modes d'acquisition, des spécifications et des normes forestières créent une hétérogénéité spatiale et sémantique entre les différentes bases de données. Dans un processus décisionnel, ces données et spécifications sont structurées d'une façon multidimensionnelle dans des cubes de données géospatiales. Par conséquent, la structure multidimensionnelle est également amenée à évoluer, ce qui affecte la réponse aux requêtes spatiotemporelles. Dans le domaine forestier, la problématique de l'évolution de structure se traduit par l'impossibilité d'effectuer des analyses spatiotemporelles, par exemple sur l'évolution du volume de bois de certaines essences ou l'évolution des épidémies, affectant directement la prise de décision dans la gestion forestière. Cette problématique exige de concevoir de nouvelles solutions capables de préserver les liens entre les membres des différentes structures. Cependant, les solutions proposées ne tiennent pas compte de manière explicite et simultanée de l'évolution sémantique et géométrique de la structure. Afin d'apporter une solution plus adaptée aux réalités des phénomènes spatiotemporels, nous avons développé une approche géosémantique intégrée pour la gestion de l'évolution de la structure du cube afin d'ajuster la qualité de la réponse à la requête spatiotemporelle et ainsi offrir un meilleur support à la prise de décision. L'approche proposée définit une méthode de rétablissement des liens entre des versions du cube. Sur le plan sémantique, nous rétablissons les liens en employant une fonction de similarité sémantique basée sur l'ontologie et qui tient compte du plus fin niveau de définition des concepts. Au niveau géométrique, notre approche se base sur une méthode d'indexation QuadTree pour constituer une matrice de correspondances spatiales entre les géométries des différentes époques. Les liens résultants sont intégrés dans une méthode de transformation matricielle afin de pouvoir répondre d'une manière plus adaptée à des requêtes spatiotemporelles.
3

Analyse et expérimentations des méthodes de création de deepfake dans le domaine géospatial et conception d'une méthode de détection adaptée

Meo, Valentin 20 November 2023 (has links)
Titre de l'écran-titre (visionné le 13 novembre 2023) / Du fait de leur danger, les deepfakes (ou hypertrucage en français) sont devenus un sujet de société. Cependant, aucune étude conséquente n'a été réalisée sur les deepfakes appliqués au domaine géospatial : l'hypertrucage géospatial. Ce travail commence par faire un état de l'art des technologies génératives permettant la modification partielle d'images, aussi appelées techniques d'« inpainting » en anglais. Grâce à celles-ci, il nous a été possible de concevoir des deepfakes d'imagerie aérienne d'une grande qualité. Afin de tester leur robustesse, des techniques de détection de falsification classiques ont été testées. Ces méthodes se sont révélées utiles mais pas suffisantes. Une méthode originale de détection spécialement adaptée aux particularités des images géospatiales a donc finalement été proposée. Les résultats très satisfaisants obtenus avec cette méthode, permettent de montrer que le contrôle de l'information n'est pas la seule solution au problème de la désinformation. Ce travail pourrait ainsi être utilisé par un public large allant des agences de renseignement, journalistes ou citoyens concernés soucieux de détecter les falsifications provenant de différentes entités.
4

Intégration de la structure matricielle dans les cubes spatiaux

McHugh, Rosemarie 13 April 2018 (has links)
Dans le monde de la géomatique, la fin des années 1990 a été marquée par l'arrivée de nouvelles solutions décisionnelles, nommées SOLAP. Les outils SOLAP fournissent des moyens efficaces pour facilement explorer et analyser des données spatiales. Les capacités spatiales actuelles de ces outils permettent de représenter cartographiquement les phénomènes et de naviguer dans les différents niveaux de détails. Ces fonctionnalités permettent de mieux comprendre les phénomènes, leur distribution et/ou leurs interrelations, ce qui améliore le processus de découverte de connaissances. Toutefois, leurs capacités en termes d'analyses spatiales interactives sont actuellement limitées. Cette limite est principalement due à l'unique utilisation de la structure de données géométrique vectorielle. Dans les systèmes d'information géographique (SIG), la structure de données matricielle offre une alternative très intéressante au vectoriel pour effectuer certaines analyses spatiales. Nous pensons qu'elle pourrait offrir une alternative intéressante également pour les outils SOLAP. Toutefois, il n'existe aucune approche permettant son exploitation dans de tels outils. Ce projet de maîtrise vise ainsi à définir un cadre théorique permettant l'intégration de données matricielles dans les SOLAP. Nous définissons les concepts fondamentaux permettant l'intégration du matriciel dans les cubes de données spatiaux. Nous présentons ensuite quelques expérimentations qui ont permis de les tester et finalement nous initions le potentiel du matriciel pour l'analyse spatiale dans les outils SOLAP.
5

Approche formelle pour une meilleure identification et gestion des risques d'usages inappropriés des données géodécisionnelles

Lévesque, Marie-Andrée 20 April 2018 (has links)
Tableau d’honneur de la Faculté des études supérieures et postdoctorales, 2008-2009 / L’utilisation croissante de l’information géographique a soulevé d’importantes inquiétudes au cours de la dernière décennie quant aux risques d’usages inappropriés des données géospatiales, particulièrement par des usagers profanes ou non experts en référence spatiale. Ces inquiétudes ont récemment augmenté avec l’arrivée de nouvelles technologies simples et rapides, dont la nouvelle catégorie d’outils d’aide à la décision dénommée SOLAP (Spatial On-Line Analytical Processing). En effet, les nouvelles capacités d’analyse offertes par ces outils ouvrent la porte à un plus grand nombre d’utilisateurs qui peuvent potentiellement ne pas tenir compte adéquatement des forces, faiblesses et qualités inhérentes aux données analysées. En réponse à cette problématique, ce projet de maîtrise propose une approche générique, prenant en compte les obligations juridiques des fournisseurs de données, permettant d’identifier et de gérer des risques d’usages inappropriés des données géodécisionnelles utilisées par les applications SOLAP. Les principes énoncés pourraient éventuellement être transposés aux systèmes non décisionnels (SIG).
6

Elaboration d'un moteur de traitement des données spatiales massives vectorielles optimisant l'indexation spatiale

Engélinus, Jonathan 24 April 2018 (has links)
Les données massives se situent au coeur de beaucoup d’enjeux scientifiques et sociétaux, et leur volume global ne cesse de croître. Il devient donc crucial de disposer de solutions permettant leur traitement et leur analyse. Hélas, alors qu’une majorité de ces données intègrent une composante spatiale vectorielle, peu de systèmes sont à même de gérer cette dernière. En outre, les rares prototypes qui s’y essaient respectent mal les standards ISO et les spécifications OGC et présentent des performances limitées. La présente recherche visait donc à déterminer comment gérer les données spatiales massives vectorielles de façon plus complète et efficiente. Il s’agissait en particulier de trouver une façon de les indexer avec une bonne scalabilité horizontale, d’assurer leur compatibilité avec la norme ISO-19125 et ses extensions, et de les rendre accessibles depuis les logiciels SIG. Il en résulte le système Elcano, une extension spatiale au système de gestion de données massives Spark qui fournit des performances accrues par rapport aux solutions du marché. / Big data are in the midst of many scientific and economic issues. Furthermore their volume is continuously increasing. As a result, the need for management and processing solutions has become critical. Unfortunately, while most of these data have a vectorial spatial component, almost none of the current systems are able to manage it. In addition, the few systems who try either do not respect the ISO standards and OGC specifications or show poor performances. The aim of this research was then to determine how to manage the vectorial massive data more completely and efficiently. The objective was to find a scalable way of indexing them, ensuring their compatibility with ISO-19125 and its extensions, and making them accessible from GIS. The result is the Elcano system. It is an extension of the massive data management system Spark which provides increased performance compared to current market solutions.
7

Traitements spatiaux dans un contexte de flux massifs de données

Hotte, Sylvain 31 August 2018 (has links)
Au cours des dernières années, nous avons constaté une augmentation du volume d’information sous la forme de flux de données. Cette augmentation rend le traitement de ces flux par des méthodes traditionnelles non performant, voire impossible. De plus, la mise à jour rapide des informations suscite un intérêt grandissant pour leurs traitements en temps réel afin d’en tirer une plus grande valeur. Ces données massives étant souvent géoréférencées, il devient donc pertinent d’offrir des méthodes permettant d’effectuer des traitements spatiaux sur ces flux massifs de données. Cependant, le sujet des traitements spatiaux dans un contexte de flux massifs a très peu été abordé dans la recherche scientifique. Les études qui ont été faites traitaient toujours de flux massif de données en relation avec des données persistantes. Aucune recherche ne portait sur des traitements spatiaux ayant plusieurs flux massifs de données spatiales. La problématique est de déterminer des méthodes de traitements pour des opérateurs spatiaux dont les paramètres sont issus de flux massifs de données spatiales. Notre objectif général consiste à explorer les caractéristiques permettant l’élaboration de tels traitements et d’offrir des pistes de solution. Nos travaux de recherche ont fait ressortir les facteurs influençant l’adaptation des traitements spatiaux dans un contexte de traitement en parallèle de flux massif de données. Nous avons déterminé que les méthodes d’adaptation peuvent se décliner en classes sur la base des caractéristiques de l’opérateur spatial, mais aussi sur la nature des données et la façon dont elles sont rendues disponibles. Nous avons proposé des méthodes générales de traitement pour chacune des classes identifiées afin de guider les stratégies d’adaptations. Pour la classe dont le traitement d’opérateur binaire possède des opérandes issus de flux massifs, nous avons détaillé une méthode d’adaptation permettant l’utilisation d’opérateurs spatiaux. Afin de tester l’efficacité et la validité de la méthode proposée, nous avons appliqué cette méthode à un opérateur relationnel d’intersection et un opérateur d’analyse de proximité, soit les "k" plus proches voisins. Ces tests ont permis de vérifier la validité et de quantifier l’efficacité des méthodes proposée par rapport à l’évolution, ou scalabilité, horizontale du système (ajout du nombre de cœurs). Nos tests ont aussi permis de quantifier l’effet de la variation du niveau de partitionnement sur les performances du débit de traitement. Notre contribution permettra, nous l’espérons, de servir de point de départ pour l’adaptation d’opérateurs spatiaux plus complexes. / In recent years we have witnessed a significant volume increase of data streams. The traditional way of processing this information is rendered inefficient or even impossible by this high volume of data. There is an increase in the interest of real time data processing in order to derive greater value of the data. Since those data are often georeferenced, it becomes relevant to offer methods that enable spatial processing on big data streams. However, the subject of spatial processing in a context of Big Data stream has seldom been discussed in scientific research. All the studies that have been done so far involve persistent data and none of them deals with the case where two Big Data streams are in relation. The problem is therefore to determine how to adapt the processing of spatial operators when their parameters derive from two Big Spatial Data stream. Our general objective is to explore the characteristics that allow the development of such analysis and to offer potential solutions. Our research has highlighted the factors influencing the adaptation of spatial processing in a context of Big Data stream. We have determined that adaptation methods can be categorized in different categories according to the characteristics of the spatial operator but also on the characteristics of the data itself and how it is made available. We proposed general methods of spatial processing for each category in order to guide adaptation strategies. For one of these categories, where a binary operator has both operands coming from Big Data stream, we have detailed a method allowing the use of spatial operators. In order to test the effectiveness and validity of the proposed method, we applied this method to an intersection operator and to a proximity analysis operator, the "k" nearest neighbors. These tests made it possible to check the validity and to quantify the effectiveness of the proposed methods in relation to the system evolution or scalability, i.e. increasing the number of processing cores. Our tests also made it possible to quantify the effect of the variation of the partitioning level on the performances of the treatment flow. Our contribution will, hopefully, serves as a starting point for more complex spatial operator adaptation.
8

Modélisation de la productivité forestière de Pinus radiata D. Don à partir de patrons de variabilité spatiotemporelle de l'espèce et de l'environnement

Miranda Salas, Marcelo January 2007 (has links)
No description available.
9

Le raisonnement à base de logique propositionnelle à l'appui de la fusion et de la révision de bases de données géospatiales

Noël de Tilly, Antoine January 2007 (has links)
Le but de ce mémoire était d’effectuer, dans un contexte géospatial, une comparai- son d’une approche de raisonnement qualitatif basée sur le PROLOG avec une autre approche reposant sur l’ASP. La principale question que nous posons est la suivante : Le moteur de raisonnement Smodels rendant possible la mise en oeuvre du raisonnement non monotone poussé et faisant intervenir le concept de modèle stable peut-il nous permettre de résoudre des problèmes de vérification de cohérence ontologique et des problèmes de révision dans le contexte de la géomatique ? Pour y répondre, nous avons procédé à une série de tests sur un échantillon de la Base nationale de données topographiques (BNDT). À la lumière des résultats obtenus, cette approche se montre très efficace et contribue à l’amélioration de la cohérence de l’information géospatiale et du raisonnement spatial réalisé à partir de cette dernière. / The objective of this thesis is to make a comparison between a qualitative reasoning approach based on PROLOG with another approach based on ASP. Our principal research question was the following : Can the Smodels reasoning engine, allowing for advanced non monotonic reasoning and introducing the stable model concept, allow us to solve ontological consistency checking problems as well as revision problems in a geomatic context ? To answer this question, we carried out a series of tests on a cross-section from the National Topographical Database (NTDB). In the light of the results obtained, this approach has proven very effective and contributes to the amelioration of geospatial information consistency and to the resultant improvement in spatial reasoning.
10

Conception et développement d'une solution de diffusion des données géospatiales massives 3D dans un contexte de gestion de risque d'inondations

Benchaabane, Fethi January 2022 (has links)
Au Québec, chaque année, les inondations printanières présentent un défi majeur pour les autorités québécoises. Ainsi, l'élaboration de nouveaux outils et de nouvelles méthodes pour diffuser et visualiser des données massives spatiotemporelles 3D dynamiques d'inondation est très important afin de mieux comprendre et gérer les risques reliés aux inondations. Cette recherche s'intéresse à la diffusion de données géospatiales massives 3D (modèles de bâtiments 3D, arbres, modèles numériques d'élévation de terrain (MNE), données LiDAR, imageries aériennes, etc.) en relation avec les inondations. Le problème est qu'il n'existe pas, à travers la littérature, des systèmes de diffusion efficaces des données massives 3D adaptées aux besoins de cette recherche. En ce sens, notre objectif général consiste à développer un outil de diffusion des données géospatiales massives 3D qui sont des bâtiments 3D et des modèles de terrains de haute résolution à l'échelle de la province du Québec. Les défis de diffusion du flux de données massives, nous ramènent à considérer la technique de tuilage 3D pour convertir les données brutes en formats et structures vectoriels plus légers et adaptés à la diffusion comme la spécification "3D Tiles" pour tuiler les bâtiments 3D, les nuages de points LiDAR et d'autres modèles géoréférencés 3D et le maillage irrégulier, notamment les TIN, pour tuiler les modèles numériques de terrain. Aussi, l'utilisation des techniques de traitement parallèle permet de gérer efficacement les flux massifs de données et d'améliorer le temps de traitement permettant ainsi la scalabilité et la flexibilité des systèmes existants. A cet effet, deux pipelines de tuilage ont été développés. Le premier pipeline concerne la création des tuiles de bâtiments 3D selon la spécification "3D Tiles". Le deuxième est pour créer des tuiles de terrain basées sur des maillages irréguliers. Ces pipelines sont ensuite intégrés dans un système de traitement distribué basé sur des conteneurs Docker afin de paralléliser les processus de traitements. Afin de tester l'efficacité et la validité du système développé, nous avons testé ce système sur un jeux de données massif d'environ 2.5 millions bâtiments 3D situés au Québec. Ces expérimentations ont permis de valider et de mesurer l'efficacité du système proposé par rapport à sa capacité de se mettre à l'échelle (Scalabilité) pour prendre en charge, efficacement, les flux massifs de données 3D. Ces expérimentations ont aussi permis de mettre en place des démarches d'optimisation permettant une meilleure performance dans la production et la diffusion des tuiles 3D. / Every year, floods present a major challenge for Quebec authorities. Thus, the development of new tools and methods to disseminate and visualize massive 3D dynamic flood data is very important to better understand and manage flood-related risks. This research focuses on the streaming of massive 3D geospatial data (3D building models, trees, digital elevation models (DEM), LiDAR data, aerial imagery, etc.) related to flooding. The problem is that there is no efficient streaming systems in the literature for massive 3D data adapted to the needs of this research. In this sense, our general objective is to develop a tool for the streaming of massive 3D geospatial data which are 3D buildings and high-resolution terrain models at the scale of the province of Quebec. The challenges of streaming massive data lead us to adopt the 3D tiling technique to convert raw data into lighter vector formats and structures suitable for streaming such as the "3D Tiles" specification to tile 3D buildings, LiDAR point clouds and other 3D georeferenced models and irregular meshes, including TIN, to tile digital terrain models. Also, the use of parallel processing techniques allows efficient management of massive data flows and improve processing time allowing the scalability and the flexibility of existing systems. For this purpose, two tiling pipelines have been developed. The first pipeline is for creating 3D building tiles according to the "3D Tiles" specification. The second is for creating terrain tiles based on irregular meshes. These pipelines are then integrated into a distributed processing system based on Docker containers in order to parallelize the treatment processes. To test the efficiency and validity of the developed system, we tested this system on a massive dataset of about 2.5 million 3D buildings located in Quebec. These experiments allowed us to validate and measure the efficiency of the proposed system to be scalable in order to efficiently handle massive 3D data flows. These experiments also allowed to set up optimization approaches allowing a better performance in the production and the streaming of 3D tiles.

Page generated in 0.0635 seconds