• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 25
  • 2
  • Tagged with
  • 27
  • 27
  • 20
  • 17
  • 16
  • 12
  • 9
  • 6
  • 6
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Développement d'une nouvelle approche d'extraction du réseau de surface à partir d'un nuage de points LiDAR massif basée sur la théorie de Morse

Dahbi, Aymane 16 January 2024 (has links)
Titre de l'écran-titre (visionné le 11 janvier 2024) / Aujourd'hui, la cartographie des réseaux hydrographiques est un sujet important pour la gestion et l'aménagement de l'espace forestier, la prévention contre les risques d'inondation, etc. Les données sources pour cartographier les cours d'eau sont des nuages de points obtenus par des lidars aéroportés. Cependant, les méthodes d'extraction des réseaux usuelles nécessitent des opérations de découpage, de rééchantillonnage et d'assemblage des résultats pour produire un réseau complet, altérant la qualité des résultats et limitant l'automatisation des traitements. Afin de limiter ces opérations, une nouvelle approche d'extraction est considérée. Cette approche propose de construire un réseau de crêtes et de talwegs à partir des points lidar, puis transforme ce réseau en réseau hydrographique. Notre recherche consiste à concevoir une méthode d'extraction robuste du réseau adaptée aux données massives. Ainsi, nous proposons d'abord une approche de calcul du réseau adaptée aux surfaces triangulées garantissant la cohérence topologique du réseau. Nous proposons ensuite une architecture s'appuyant sur des conteneurs pour paralléliser les calculs et ainsi traiter des données massives. / Nowadays, the mapping of hydrographic networks is an important subject for forestry management and planning, flood risk prevention, and so on. The source data for mapping watercourses are point clouds obtained by airborne lidars. However, conventional network extraction methods require cutting, resampling, and assembling the results to produce a complete network, thereby altering the quality of the results, and limiting the automation of processing. In order avoid these processing steps, a new computational approach is considered. This approach involves building a network of ridges and talwegs from lidar points, and then transforming this network into a hydrographic network. Our research consists in designing a robust network extraction method adapted to massive data. First, we propose a network calculation approach adapted to triangulated surfaces, guaranteeing the network's topological consistency. We then propose a container-based architecture for parallelizing computations to handle big data processing.
12

Conception et développement d'un service Web de contexte spatial dédié aux téléphones intelligents dans le cadre de jeux éducatifs interactifs

Edoh-Alové, Djogbénuyè Akpé 18 April 2018 (has links)
Actuellement, avec l’essor de l’informatique ubiquitaire, un intérêt grandissant est porté à l’exploitation du contexte de l’utilisateur pour une adaptation des applications et de leur contenu à ses besoins et activités en temps réel, dans divers domaines (tourisme, maisons intelligents, hôpitaux). De cet intérêt résulte bon nombre de projets traitant la définition et l’élaboration de modèles de contexte et de plateformes de gestion dudit contexte. Dans le cadre du projet GéoÉduc3D, l’utilisation du contexte pour l’amélioration de l’aspect immersif et interactif de jeux éducatifs revêt un intérêt certain. Ce cadre applicatif (jeux éducatifs, réalité augmentée, téléphones intelligents) est complètement différent et amène la question de l’interopérabilité peu abordée dans les précédents travaux. Nos travaux ont donc pour objectif de concevoir et d’implémenter une solution informatique dédiée à l’acquisition et à la diffusion de contexte spatial dans un environnement multi-joueurs sur et pour des téléphones intelligents. Dans ce but, nous proposons tout d’abord une nouvelle définition et une modélisation du contexte spatial adapté à notre cadre particulier. Ensuite, nous présentons l’architecture d’un système orienté service pour la gestion de cette information contextuelle. Afin de tester notre approche, un prototype de service Web a été élaboré selon trois fonctions principales : récupération des informations auprès des téléphones intelligents ; enregistrement des données dans la base de données et interrogation flexible en mode synchrone ou asynchrone des données. Ce travail de recherche ouvre ainsi la voie à la conception et au développement d’applications de jeux éducatifs, destinées à n’importe quel type de téléphone intelligent, sensible au contexte spatial des joueurs dans un environnement multi-joueurs. / Currently, with the rise of ubiquitous computing, one is growing interest in using the user context, for adapting applications and their contents to users’ needs and activities in real time, in different fields (tourism, smart homes, and hospitals). Many projects dealing with the definition and context models and management platforms have emerged. In the GeoEduc3D project, exploiting the context to improve the immersive and interactive aspects of interactive educational games is to be explored. This particular application framework (serious games, augmented reality, smart phones) is completely different and brings the issue of interoperability, which was not really addressed in previous work. Therefore, our work aims to design and implement a solution dedicated to the acquisition and dissemination of spatial context in a multi-players environment on and for smart phones. For this purpose, we first propose a definition and modeling of spatial context. Then we define the architecture of a service-oriented system for managing that information. To test our approach, a Web service prototype was developed according to three main functions: retrieving information from smart phones, storing data in the database and query flexible synchronous or asynchronous data. This research opens the way for the design and development of context-aware serious games applications for any type of smart phone, in a multiplayer environment.
13

Fouille de données : vers une nouvelle approche intégrant de façon cohérente et transparente la composante spatiale

Ouattara, Mamadou 16 April 2018 (has links)
Depuis quelques décennies, on assiste à une présence de plus en plus accrue de l’information géo-spatiale au sein des organisations. Cela a eu pour conséquence un stockage massif d’informations de ce type. Ce phénomène, combiné au potentiel d’informations que renferment ces données, on fait naître le besoin d’en apprendre davantage sur elles, de les utiliser à des fins d’extraction de connaissances qui puissent servir de support au processus de décision de l’entreprise. Pour cela, plusieurs approches ont été envisagées dont premièrement la mise à contribution des outils de fouille de données « traditionnelle ». Mais face à la particularité de l’information géo-spatiale, cette approche s’est soldée par un échec. De cela, est apparue la nécessité d’ériger le processus d’extraction de connaissances à partir de données géographiques en un domaine à part entière : le Geographic Knowlegde Discovery (GKD). La réponse à cette problématique, par le GKD, s’est traduite par la mise en œuvre d’approches qu’on peut catégoriser en deux grandes catégories: les approches dites de prétraitement et celles de traitement dynamique de l’information spatiale. Pour faire face aux limites de ces méthodes et outils nous proposons une nouvelle approche intégrée qui exploite l’existant en matière de fouille de données « traditionnelle ». Cette approche, à cheval entre les deux précédentes vise comme objectif principal, le support du type géo-spatial à toutes les étapes du processus de fouille de données. Pour cela, cette approche s’attachera à exploiter les relations usuelles que les entités géo-spatiales entretiennent entre elles. Un cadre viendra par la suite décrire comment cette approche supporte la composante spatiale en mettant à contribution des bibliothèques de traitement de la donnée géo-spatiale et les outils de fouille « traditionnelle » / In recent decades, geospatial data has been more and more present within our organization. This has resulted in massive storage of such information and this, combined with the learning potential of such information, gives birth to the need to learn from these data, to extract knowledge that can be useful in supporting decision-making process. For this purpose, several approaches have been proposed. Among this, the first has been to deal with existing data mining tools in order to extract any knowledge of such data. But due to a specificity of geospatial information, this approach failed. From this arose the need to erect the process of extracting knowledge from geospatial data in its own right; this lead to Geographic Knowledge Discovery. The answer to this problem, by GKD, is reflected in the implementation of approaches that can be categorized into two: the so-called pre-processing approaches and the dynamic treatment of spatial relationships. Given the limitations of these approaches we propose a new approach that exploits the existing data mining tools. This approach can be seen as a compromise of the two previous. It main objective is to support geospatial data type during all steps of data mining process. To do this, the proposed approach will exploit the usual relationships that geo-spatial entities share each other. A framework will then describe how this approach supports the spatial component involving geo-spatial libraries and "traditional" data mining tools
14

Improving knowledge about the risks of inappropriate uses of geospatial data by introducing a collaborative approach in the design of geospatial databases

Grira, Joël 20 April 2018 (has links)
La disponibilité accrue de l’information géospatiale est, de nos jours, une réalité que plusieurs organisations, et même le grand public, tentent de rentabiliser; la possibilité de réutilisation des jeux de données est désormais une alternative envisageable par les organisations compte tenu des économies de coûts qui en résulteraient. La qualité de données de ces jeux de données peut être variable et discutable selon le contexte d’utilisation. L’enjeu d’inadéquation à l’utilisation de ces données devient d’autant plus important lorsqu’il y a disparité entre les nombreuses expertises des utilisateurs finaux de la donnée géospatiale. La gestion des risques d’usages inappropriés de l’information géospatiale a fait l’objet de plusieurs recherches au cours des quinze dernières années. Dans ce contexte, plusieurs approches ont été proposées pour traiter ces risques : parmi ces approches, certaines sont préventives et d’autres sont plutôt palliatives et gèrent le risque après l'occurrence de ses conséquences; néanmoins, ces approches sont souvent basées sur des initiatives ad-hoc non systémiques. Ainsi, pendant le processus de conception de la base de données géospatiale, l’analyse de risque n’est pas toujours effectuée conformément aux principes d’ingénierie des exigences (Requirements Engineering) ni aux orientations et recommandations des normes et standards ISO. Dans cette thèse, nous émettons l'hypothèse qu’il est possible de définir une nouvelle approche préventive pour l’identification et l’analyse des risques liés à des usages inappropriés de la donnée géospatiale. Nous pensons que l’expertise et la connaissance détenues par les experts (i.e. experts en geoTI), ainsi que par les utilisateurs professionnels de la donnée géospatiale dans le cadre institutionnel de leurs fonctions (i.e. experts du domaine d'application), constituent un élément clé dans l’évaluation des risques liés aux usages inadéquats de ladite donnée, d’où l’importance d’enrichir cette connaissance. Ainsi, nous passons en revue le processus de conception des bases de données géospatiales et proposons une approche collaborative d’analyse des exigences axée sur l’utilisateur. Dans le cadre de cette approche, l’utilisateur expert et professionnel est impliqué dans un processus collaboratif favorisant l’identification a priori des cas d’usages inappropriés. Ensuite, en passant en revue la recherche en analyse de risques, nous proposons une intégration systémique du processus d’analyse de risque au processus de la conception de bases de données géospatiales et ce, via la technique Delphi. Finalement, toujours dans le cadre d’une approche collaborative, un référentiel ontologique de risque est proposé pour enrichir les connaissances sur les risques et pour diffuser cette connaissance aux concepteurs et utilisateurs finaux. L’approche est implantée sous une plateforme web pour mettre en œuvre les concepts et montrer sa faisabilité. / Nowadays, the increased availability of geospatial information is a reality that many organizations, and even the general public, are trying to transform to a financial benefit. The reusability of datasets is now a viable alternative that may help organizations to achieve cost savings. The quality of these datasets may vary depending on the usage context. The issue of geospatial data misuse becomes even more important because of the disparity between the different expertises of the geospatial data end-users. Managing the risks of geospatial data misuse has been the subject of several studies over the past fifteen years. In this context, several approaches have been proposed to address these risks, namely preventive approaches and palliative approaches. However, these approaches are often based on ad-hoc initiatives. Thus, during the design process of the geospatial database, risk analysis is not always carried out in accordance neither with the principles/guidelines of requirements engineering nor with the recommendations of ISO standards. In this thesis, we suppose that it is possible to define a preventive approach for the identification and analysis of risks associated to inappropriate use of geospatial data. We believe that the expertise and knowledge held by experts and users of geospatial data are key elements for the assessment of risks of geospatial data misuse of this data. Hence, it becomes important to enrich that knowledge. Thus, we review the geospatial data design process and propose a collaborative and user-centric approach for requirements analysis. Under this approach, the user is involved in a collaborative process that helps provide an a priori identification of inappropriate use of the underlying data. Then, by reviewing research in the domain of risk analysis, we propose to systematically integrate risk analysis – using the Delphi technique – through the design of geospatial databases. Finally, still in the context of a collaborative approach, an ontological risk repository is proposed to enrich the knowledge about the risks of data misuse and to disseminate this knowledge to the design team, developers and end-users. The approach is then implemented using a web platform in order to demonstrate its feasibility and to get the concepts working within a concrete prototype.
15

Intégration de données temps-réel issues de capteurs dans un entrepôt de données géo-décisionnel

Mathieu, Jean 17 April 2018 (has links)
Nous avons pu, au cours des dernières années, assister à une augmentation du nombre de capteurs utilisés pour mesurer des phénomènes de plus en plus variés. En effet, nous pouvons aujourd'hui utiliser les capteurs pour mesurer un niveau d'eau, une position (GPS), une température et même le rythme cardiaque d'un individu. La grande diversité de capteurs fait d'eux aujourd'hui des outils par excellence en matière d'acquisition de données. En parallèle à cette effervescence, les outils d'analyse ont également évolué depuis les bases de données transactionnelles et ont mené à l'apparition d'une nouvelle famille d’outils, appelés systèmes d’analyse (systèmes décisionnels), qui répond à des besoins d’analyse globale sur les données. Les entrepôts de données et outils OLAP (On-Line Analytical Processing), qui font partie de cette famille, permettent dorénavant aux décideurs d'analyser l'énorme volume de données dont ils disposent, de réaliser des comparaisons dans le temps et de construire des graphiques statistiques à l’aide de simples clics de la souris. Les nombreux types de capteurs peuvent certainement apporter de la richesse à une analyse, mais nécessitent de longs travaux d'intégration pour les amener jusqu'à un entrepôt géo-décisionnel, qui est au centre du processus de prise de décision. Les différents modèles de capteurs, types de données et moyens de transférer les données sont encore aujourd'hui des obstacles non négligeables à l'intégration de données issues de capteurs dans un entrepôt géo-décisionnel. Également, les entrepôts de données géo-décisionnels actuels ne sont pas initialement conçus pour accueillir de nouvelles données sur une base fréquente. Puisque l'utilisation de l'entrepôt par les utilisateurs est restreinte lors d'une mise à jour, les nouvelles données sont généralement ajoutées sur une base hebdomadaire, mensuelle, etc. Il existe pourtant des entrepôts de données capables d'être mis à jour plusieurs fois par jour sans que les performances lors de leur exploitation ne soient atteintes, les entrepôts de données temps-réel (EDTR). Toutefois, cette technologie est encore aujourd’hui peu courante, très coûteuse et peu développée. Ces travaux de recherche visent donc à développer une approche permettant de publier et standardiser les données temps-réel issues de capteurs et de les intégrer dans un entrepôt géo-décisionnel conventionnel. Une stratégie optimale de mise à jour de l'entrepôt a également été développée afin que les nouvelles données puissent être ajoutées aux analyses sans que la qualité de l'exploitation de l'entrepôt par les utilisateurs ne soit remise en cause. / In the last decade, the use of sensors for measuring various phenomenons has greatly increased. As such, we can now make use of sensors to measure GPS position, temperature and even the heartbeats of a person. Nowadays, the wide diversity of sensor makes them the best tools to gather data. Along with this effervescence, analysis tools have also advanced since the creation of transactional databases, leading to a new category of tools, analysis systems (Business Intelligence (BI)), which respond to the need of the global analysis of the data. Data warehouses and OLAP (On-Line Analytical Processing) tools, which belong to this category, enable users to analyze big volumes of data, execute time-based requests and build statistic graphs in a few simple mouse clicks. Although the various types of sensor can surely enrich any analysis, such data requires heavy integration processes to be driven into the data warehouse, centerpiece of any decision-making process. The different data types produced by sensors, sensor models and ways to transfer such data are even today significant obstacles to sensors data streams integration in a geo-decisional data warehouse. Also, actual geo-decisional data warehouses are not initially built to welcome new data on a high frequency. Since the performances of a data warehouse are restricted during an update, new data is usually added weekly, monthly, etc. However, some data warehouses, called Real-Time Data Warehouses (RTDW), are able to be updated several times a day without letting its performance diminish during the process. But this technology is not very common, very costly and in most of cases considered as "beta" versions. Therefore, this research aims to develop an approach allowing to publish and normalize real-time sensors data streams and to integrate it into a classic data warehouse. An optimized update strategy has also been developed so the frequent new data can be added to the analysis without affecting the data warehouse performances.
16

Nouvelle méthode pour mieux informer les utilisateurs de portails Web sur les usages inappropriés de données géospatiales

Roy, Tania 19 April 2018 (has links)
Tableau d’honneur de la Faculté des études supérieures et postdoctorales, 2013-2014. / Dans le cas de portails Web donnant accès à de multiples jeux de données, il peut être difficile pour un utilisateur métier non expert en données géospatiales d’évaluer si les données présentent des risques d’utilisation, la seule information généralement disponible étant les métadonnées. Elles sont généralement présentées dans un langage technique, ce qui peut limiter la compréhension de leur portée sur les décisions de l’utilisateur. L’objectif principal de ce mémoire est de proposer une approche pour aider les utilisateurs et producteurs de données géospatiales à identifier et gérer les risques reliés à l’utilisation envisagée de données acquises dans un portail Web a posteriori de la production des données. L’approche utilisée pour répondre à nos objectifs consiste en une série de questions structurées adressées à l’utilisateur dont les réponses permettent d’identifier des risques. Dans le cas où celui-ci identifie des risques d’utilisation, des actions spécifiques de gestion du risque sont suggérées. / In the case of Web portals providing access to multiple data sets, it may be difficult for a non-expert user to assess if data may present risks; the only information generally available being metadata. These metadata are generally presented in a technical language, and it can be difficult for a non-expert user to understand the scope of the metadata on their decisions. The main objective of this thesis is to propose an approach for helping users and producers of geospatial data to identify and manage risks related to the planned use of data acquired through a Web portal, a posteriori of the production of data. The approach developed uses a series of structured questions to be answered by a user of geospatial data. Depending on the answers, the user can identify risks of use. When risks of data misuse are identified, specific risk management actions are suggested.
17

Évaluation de la qualité des données géospatiales : approche top-down et gestion de la métaqualité

Lévesque, Johann 13 April 2018 (has links)
Depuis l'avènement du numérique, la demande de données par les utilisateurs des systèmes d'information géographique (SIG) ne fait qu'augmenter. Les organismes utilisateurs se retrouvent souvent devant plusieurs sources de données géographiques potentielles et ils doivent alors évaluer la qualité de chaque source en fonction de leurs besoins. Pour ce faire, ces organismes pourraient faire appel à un expert en qualité qui pourrait les aider à déterminer s'il y a adéquation (i.e. qualité externe) entre les données et leurs besoins. Pour utiliser le système MUM, l'expert en qualité doit recueillir de l'information sur les jeux de données. Dans le domaine de la géomatique, cette information se retrouve généralement sous la forme de métadonnées émises par les producteurs de données. Le système MUM, développé par Devillers et al. [2004b], a été conçu initialement en fonction d'une approche bottom-up, où on utilise des métadonnées fines pour extraire des indicateurs globaux de qualité, à l'aide d'opérateurs d'agrégation typiques des outils SOLAP. Il s'agit là d'une solution qui permet de faciliter l'analyse de la qualité, particulièrement dans des contextes de données hétérogènes. Par contre, comme le mentionnent les concepteurs de MUM, le manque de métadonnées fines est un obstacle à l'utilisation du système MUM dans sa forme actuelle. L'objectif de la présente recherche a donc été d'élaborer une méthode de génération des métadonnées dite top-down. Cette méthode permet de générer, lorsque possible, les métadonnées fines (au niveau des occurrences, voire des primitives géométriques) d'un jeu de données à l'aide des métadonnées grossières et des opinions d'experts touchant un ensemble d'occurrences. Cette méthodologie amène l'expert en qualité à utiliser dans certains cas des sources de données différentes. Ceci soulève alors un problème concernant l'hétérogénéité de la fiabilité des sources utilisées pour évaluer la qualité externe. Le concept de métaqualité a été introduit pour répondre à ce problème d'hétérogénéité. Il permet en effet de quantifier le risque lié à l'imperfection de l'information contenue dans les indicateurs de qualité. L'enrichissement du système MUM a donc été réalisé grâce à la conception du modèle E-QIMM (Extented Quality Information Management Model) qui est une extension du modèle QIMM de Devillers [2004] et qui permet d'intégrer la dimension ± Métaqualité ¿ dans le processus d'évaluation de la qualité.
18

Real Time Semantic Interoperability in ad hoc Networks of Geospatial Databases : disaster Management Context

Bakillah, Mohamed 18 April 2018 (has links)
Avec le développement rapide des technologies permettant la collecte et l’échange des données géospatiales, la quantité de bases de données géospatiales disponibles est en constante augmentation. Ces bases de données géospatiales représentent souvent une même réalité géographique de façon différente, et sont, par conséquent, sémantiquement hétérogènes. Afin que les utilisateurs de différentes bases de données puissent échanger des données et collaborer dans un but commun, ils doivent avoir une compréhension commune de la signification des données échangées et résoudre ces hétérogénéités, c’est-à-dire que l’interopérabilité sémantique doit être assurée. Il existe actuellement plusieurs approches visant à établir l’interopérabilité sémantique. Cependant, l’arrivée puis la récente prolifération des réseaux ad hoc modifient et rendent plus complexe la résolution du problème de l’interopérabilité sémantique. Les réseaux ad hoc de bases de données géospatiales sont des réseaux qui peuvent s’auto-organiser, pour des besoins ponctuels, sans qu’une structure particulière soit définie a priori. En raison de leur dynamicité, de l’autonomie des sources qui les composent, et du grand volume de sources disponibles, les approches dites « traditionnelles » qui ont été conçues pour établir l’interopérabilité sémantique entre deux sources ou un nombre limité et statique de sources ne sont plus adaptées. Néanmoins, bien que les caractéristiques d’une approche pour l’interopérabilité sémantique dans les réseaux ad hoc doivent permettre d’agir sur un grand volume de sources, il demeure essentiel de prendre en compte, dans la représentation de la sémantique des données, les caractéristiques particulières, les contextes et les dimensions spatiales, thématiques et temporelles des données géospatiales. Dans cette thèse, une nouvelle approche pour l’interopérabilité sémantique en temps réel dans les réseaux ad hoc de bases de données géospatiales est proposée afin de répondre à la fois aux problématiques engendrées par les réseaux ad hoc et les bases de données géospatiales. Les contributions de cette approche pour l’interopérabilité sémantique en temps réel concernent majoritairement la collaboration dynamique entre les utilisateurs de bases de données géospatiales du réseau ad hoc, la représentation et l’extraction des connaissances, le mapping sémantique automatisé, la similarité sémantique et la propagation des requêtes dans le réseau ad hoc. Le cadre conceptuel qui sous-tend l’approche se base sur les principes de la communication dans les réseaux sociaux. À la suite du cadre conceptuel qui établit les fondements de l’approche, cette thèse présente un nouveau modèle de représentation des coalitions de bases de données géospatiales, dans le but de faciliter, dans un contexte d’interopérabilité sémantique, la collaboration entre les utilisateurs de bases de données géospatiales du réseau. Sur la base de ce modèle, une approche de découverte des sources pertinentes et de formation des coalitions se basant sur les principes de l’analyse des réseaux est proposée. Afin de gérer les changements du réseau en temps réel, des opérateurs de gestion des changements dans les coalitions sont proposés. Une fois les coalitions établies, les échanges de données entre les membres d’une même coalition ou de coalitions différentes ne peuvent être assurées que si la représentation de la sémantique est suffisamment riche et que les ontologies qui décrivent les différentes bases de données sont sémantiquement réconciliées. Pour ce faire, nous avons développé dans cette thèse un nouveau modèle de représentation des concepts, le soit le Concept multi-vues augmenté (Multi-View Augmented Concept - MVAC) dont le rôle est d’enrichir les concepts des ontologies avec leurs différentes contextes, la sémantique de leurs propriétés spatiotemporelles, ainsi que les dépendances entre leurs caractéristiques. An Ensuite, une méthode pour générer les concepts MVAC est développée, laquelle comprend une méthode pour l’extraction des différentes vues d’un concept qui sont valides dans différents contextes, puis une méthode d’augmentation du concept qui extrait les dépendances implicites au moyen d’algorithme de fouille de règles d’association. Ensuite, deux modèles complémentaires furent développés pour résoudre les hétérogénéités sémantiques entre les concepts MVAC. Dans un premier lieu, un modèle graduel de mapping sémantique automatisé, le G-MAP, établit les relations sémantiques qualitatives entre les concepts MVAC au moyen de moteurs de raisonnement basé sur des règles d’inférence qui intègrent de nouveaux critères de matching. Ce modèle se distingue par sa capacité à prendre en compte une représentation plus riche et complexe des concepts. Puis, nous avons développé un nouveau modèle de similarité sémantique, Sim-Net, adapté aux réseaux ad hoc et basé sur le langage de la logique descriptive. La contribution des deux modèles permet une interprétation optimale par l’utilisateur de la signification des relations entre les concepts de différentes bases de données géospatiales, améliorant ainsi l’interopérabilité sémantique. La dernière composante est une approche multi-stratégies de propagation des requêtes dans le réseau ad hoc, où les stratégies, formalisées à l’aide du langage Lightweight Coordination Calculus (LCC) qui supporte les interactions basées sur des normes sociales et des contraintes dans un système distribué, représentent différents moyens employés pour communiquer dans les réseaux sociaux. L’approche de propagation intègre un algorithme d’adaptation en temps réel des stratégies aux changements qui modifient le réseau. L’approche a été implémentée sous forme de prototype utilisant la plateforme Java JXTA qui simule les interactions dynamiques entre des pairs et des groupes de pairs (réseau peer-to-peer). L’utilité, la faisabilité et les avantages de l’approche sont démontrés par un scénario de gestion de désastre naturel. Cette thèse apporte aussi une contribution supplémentaire en développant le nouveau concept de qualité de l’interopérabilité sémantique ainsi qu’un cadre pour l’évaluation de la qualité de l’interopérabilité sémantique en tant que processus. Ce cadre est utilisé à des fins d’évaluation pour valider l’approche. Ce concept de qualité de l’interopérabilité sémantique ouvre de nombreuses perspectives de recherches futures concernant la qualité des échanges de données dans un réseau et son effet sur la prise de décision. / The recent technological advances regarding the gathering and the sharing of geospatial data have made available important volume of geospatial data to potential users. Geospatial databases often represent the same geographical features but from different perspectives, and therefore, they are semantically heterogeneous. In order to support geospatial data sharing and collaboration between users of geospatial databases to achieve common goals, semantic heterogeneities must be resolved and users must have a shared understanding of the data being exchanged. That is, semantic interoperability of geospatial data must be achieved. At this time, numerous semantic interoperability approaches exist. However, the recent arrival and growing popularity of ad hoc networks has made the semantic interoperability problem more complex. Ad hoc networks of geospatial databases are network that self-organize for punctual needs and that do not rely on any predetermined structure. “Traditional” semantic interoperability approaches that were designed for two sources or for a limited static number of known sources are not suitable for ad hoc networks, which are dynamic and composed of a large number of autonomous sources. Nevertheless, while a semantic interoperability approach designed for ad hoc network should be scalable, it is essential to consider, when describing semantics of data, the particularities, the different contexts and the thematic, spatial and temporal aspects of geospatial data. In this thesis, a new approach for real time semantic interoperability in ad hoc network of geospatial databases that address the requirements posed by both geospatial databases and ad hoc networks is proposed. The main contributions of this approach for real time semantic interoperability are related to the dynamic collaboration among user agents of different geospatial databases, knowledge representation and extraction, automatic semantic mapping and semantic similarity, and query propagation in ad hoc network based on multi-agent theory. The conceptual framework that sets the foundation of the approach is based on principles of communication between agents in social network. Following the conceptual framework, this thesis proposes a new model for representing coalitions of geospatial databases that aim at supporting the collaboration among user agents of different geospatial databases of the network, in a semantic interoperability context. Based on that model, a new approach for discovering relevant sources and coalitions mining based on network analysis techniques is proposed. Operators for the management of events affecting coalitions are defined to manage real times changes occurring in the ad hoc network. Once coalitions are established, data exchanges inside a coalition or between different coalitions are possible only if the representation of semantics of rich enough, and the semantic reconciliation is achieved between ontologies describing the different geospatial databases. To achieve this goal, in this thesis we have defined a new representation model for concepts, the Multi-View Augmented Concept (MVAC). The role of this model is to enrich concepts of ontologies with their various contexts, the semantics of their spatiotemporal properties, and the dependencies between their features. A method to generate MVAC concept was developed. This method includes a method for the extraction of the different views of a concept that correspond to the different contexts, and an augmentation method based on association rule mining to extract dependencies between features. Then, two complementary models to resolve semantic heterogeneity between MVAC concepts were developed. First, a gradual automated semantic mapping model, the G-MAP, discovers qualitative semantic relations between MVAC concepts using rule-based reasoning engines that integrate new matching criteria. The ability of this model to take as input a rich and complex representation of concepts constitutes the contribution of this model with respect to existing ones. Second, we have developed Sim-Net, a Description Logic- based semantic similarity model adapted to ad hoc networks. The combination of both models supports an optimal interpretation by the user of the meaning of relations between concepts of different geospatial databases, improving semantic interoperability. The last component is a multi-strategy query propagation approach for ad hoc network. Strategies are formalized with the Lightweight Coordination Calculus (LCC), which support interactions between agents based on social norms and constraints in a distributed system, and they represent the different strategies employed to communicate in social networks. An algorithm for the real time adaptation of strategies to changes affecting the network is proposed. The approach was implemented with a prototype using the Java JXTA platform that simulates dynamic interaction between peers and groups of peers. The advantages, the usefulness and the feasibility of the approach were demonstrated with a disaster management scenario. An additional contribution is made in this thesis with the development of the new notion of semantic interoperability quality, and a framework to assess semantic interoperability quality. This framework was used to validate the approach. This new concept of semantic interoperability quality opens many new research perspectives with respect to the quality of data exchanges in network and its impact on decision-making.
19

Conception et développement d'un service web de mise à jour incrémentielle pour les cubes de données spatiales

Declercq, Charlotte 13 April 2018 (has links)
Les applications géodécisionnelles évoluent vers le temps réel et nécessitent un mécanisme de mise à jour rapide. Or, ce processus est complexe et très coûteux en temps de calcul à cause de la structure dénormalisée des données, stockées sous forme de cube. La méthode classique qui consistait à reconstruire entièrement le cube de données prend de plus en plus de temps au fur et à mesure que le cube grossit, et n'est plus envisageable. De nouvelles méthodes de mise à jour dites incrémentielles ont fait leurs preuves dans le domaine du Business Intelligence. Malheureusement, de telles méthodes n'ont jamais été transposées en géomatique décisionnelle, car les données géométriques nécessitent des traitements spécifiques et complexes. La mise à jour des cubes de données spatiales soulève des problèmes jusqu'alors inconnus dans les cubes de données classiques. En plus de cela, une large confusion règne autour de la notion de mise à jour dans les entrepôts de données. On remarque également que l'architecture des entrepôts de données suit la tendance actuelle d'évolution des architectures de systèmes informatiques vers une distribution des tâches et des ressources, au détriment des systèmes centralisés, et vers le développement de systèmes interopérables. Les architectures en émergence, dites orientées services deviennent dans ce sens très populaires. Cependant, les services dédiés à des tâches de mise à jour de cubes sont pour l'heure inexistants, même si ceux-ci représenteraient un apport indéniable pour permettre la prise de décision sur des données toujours à jour et cohérentes. Le but de ce mémoire est d'élaborer des méthodes de mise à jour incrémentielles pour les cubes spatiaux et d'inscrire le dispositif dans une architecture orientée services. La formulation de typologies pour la gestion de l'entrepôt de données et pour la mise à jour de cube a servi de base à la réflexion. Les méthodes de mise à jour incrémentielles existantes pour les cubes non spatiaux ont été passées en revue et ont permis d'imaginer de nouvelles méthodes incrémentielles adaptées aux cubes spatiaux. Pour finir, une architecture orientée services a été conçue, elle intègre tous les composants de l'entrepôt de données et contient le service web de mise à jour de cube, qui expose les différentes méthodes proposées.
20

Évaluation de la qualité et du potentiel d'utilisation des données géospatiales acquises par des systèmes lidar mobiles dans une mine souterraine en production

Drolet, Michel 03 January 2022 (has links)
Les mines à ciel ouvert et souterraines sont des environnements dynamiques de production. Les propriétés géomécaniques des massifs rocheux contrôlent le comportement des excavations. La planification des travaux d'excavation est une phase importante de l'exploitation d'une mine afin de travailler de façon sécuritaire et rentable. Une modélisation précise de la géométrie des excavations minières permettrait notamment de quantifier le matériel excavé et de cartographier le régime structural des parois rocheuses. Généralement, les calculs de volumes sont réalisés à l'aide de récepteurs GNSS récepteurs GNSS (dans le cas de mines à ciel ouvert) et de systèmes lidar et les structures géologiques sont caractérisées manuellement à l'aide d'une boussole. Bien que cette méthode manuelle ait fait ses preuves, elle ne permet pas toujours de caractériser l'ensemble de la paroi rocheuse et nécessite beaucoup de temps sur le terrain. Le développement des technologies lidar est en constante croissance et il y a plusieurs instruments disponibles sur le marché, proposant une prise de mesure rapide et à distance. Toutefois, il y a peu d'information qui évalue la qualité de la donnée géospatiale et qui permet de valider les applications potentielles de ces technologies lidar en milieu minier. Comme mentionné par Devillers (2004), les utilisateurs de données géospatiales doivent être conscients de la qualité des données qu'ils manipulent afin de réduire les risques de mauvaises utilisations. Hudson et Harrison (1997) mentionnent que les discontinuités peuvent jouer un rôle critique dans la stabilité des ouvrages souterrains. Une mauvaise utilisation de la donnée géospatiale afin d'interpréter le comportement d'un massif rocheux pourrait avoir des conséquences importantes. L'objectif principal de ce mémoire est d'évaluer la qualité de la donnée géospatiale de systèmes lidar mobiles (SLM) dans le contexte d'une mine souterraine. L'acquisition des données s'est effectuée à la mine souterraine Eldorado à Val-d'Or. L'instrument de référence utilisé est le scanneur statique Faro Focus S70 et les lidars mobiles évalués sont les Zeb-Revo et le uGPS Rapid Mapper. L'objectif secondaire est d'évaluer le potentiel d'utilisation de ces scanneurs mobiles pour le calcul de volume et la cartographie du régime structural de parois rocheuses d'une mine à ciel ouvert et d'une mine souterraine. Une acquisition de données a aussi été réalisée sur une paroi rocheuse à ciel ouvert. Les mêmes instruments ont été utilisés à l'exception du uGPS Rapid Mapper, non disponible au moment de ces levés, qui a été remplacé par un iPad Pro 12. Ce projet de recherche a permis d'évaluer la qualité de la donnée géospatiale de SLM en milieu souterrain. L'erreur estimée du Zeb-Revo est de ± 0,03 m et de ± 0,15 m pour le uGPS. Les résultats montrent que le Zeb-Revo peut servir à calculer les volumes d'une excavation souterraine. Les écarts de volumes entre le Zeb-Revo et la valeur de référence produite par le scanneur Faro Focus S70 est d'au plus 2% et ces écarts sont de plus de 40% entre le uGPS et la même valeur de référence. Quoi qu'il en soit, il faut porter une attention particulière à la dérive du système de navigation des scanneurs mobiles. Ces analyses n'ont pas été réalisées avec l'iPad à la mine souterraine, mais l'erreur observée dans les levés à ciel ouvert est de l'ordre de de 0,04 m. Les recherches ont aussi démontré la possibilité de mesurer les orientations des structures géologiques d'un massif rocheux à l'aide de lidars mobiles. En milieu à ciel ouvert, la mesure de l'orientation des structures géologiques sur la base d'un relevé SLM a permis de quantifier de manière satisfaisante l'orientation des structures géologiques. Selon la méthode et le lidar utilisés, les écarts angulaires des orientations des familles varient de 5° à 27° pour Discontinuity Set Extractor (DSE) (Abellán, 2018), de 5° à 12° pour PointStudio (Maptek, 2021) et de 10° à 30° pour le plugin kd-tree (Dewez et al., 2016) par rapport au levé manuel de référence par boussole. En milieu souterrain, les méthodes automatiques de détection des structures géologiques ne permettent pas efficacement de distinguer celles-ci de la surface des parois de l'excavation. La méthode automatique DSE donne des résultats semblables pour les trois systèmes lidar, mais partiellement différents du stéréonet de référence. Les écarts angulaires des orientations des familles varient entre 8° à 73°. De plus, deux familles semblent correspondre à l'orientation de l'excavation de la galerie plutôt qu'à la structure géologique naturelle. Une méthode manuelle permet d'identifier visuellement les discontinuités une par une sur les nuages de points, à condition que la qualité de la donnée lidar soit adéquate. La méthode manuelle PointStudio et le lidar Faro ont permis d'identifier la plupart des familles avec un écart angulaire se situant entre 10° et 30° par rapport au levé de référence. La qualité des lidars mobiles testés en milieu souterrain n'est pas suffisante pour l'extraction manuelle des discontinuités. En résumé, les logiciels DSE et PointStudio font bien ce pour quoi ils ont été conçus, c'est-à-dire extraire des plans à partir d'un nuage de points. Toutefois, l'utilisateur doit être prudent avec la donnée qu'il manipule et avoir une bonne connaissance du terrain. / Open-pit and underground mines are dynamic production environments. The geomechanical properties of the rock mass control the behavior of excavations. Excavation planning is an important phase of mine operation in order to work safely and profitably. An adequate 3D modeling of the mine site geometry allows an estimation of the excavated material and a mapping of the structural regime of the rock walls. Typically, volume calculations are performed using GNSS receivers (in case of open-pit) and lidar systems and geological structures are characterized manually using a compass. Although so far successful, using a manual method does not always allow the characterization of the entire rock face and it also requires a lot of time on site. However, the development of lidar technologies is constantly growing and there are several instruments available on the market offering fast and remote measurements. On the other hand, there is little information that evaluates the quality of the geospatial data and validates the potential applications of these lidar technologies in mining environments. As outlined by Devillers (2004), users of geospatial data need to be aware of the quality of the data they are handling in order to reduce the risk of misuse. Hudson and Harrison (1997) mention that discontinuities can play a critical role in the stability of underground structures. Misuse of the point cloud data to interpret the behavior of a rock mass could have important consequences. The main objective of this master's thesis is to evaluate the quality of geospatial data acquires with mobile lidar systems (MLS) in an underground mine. The data acquisition was done at the Eldorado underground mine in Val d'Or. The reference instrument used is the Faro Focus S70 static scanner and the mobile lidar evaluated are the Zeb-Revo and the uGPS Rapid Mapper. The secondary objective is to evaluate the potential use of these mobile scanners for volume calculation and structural regime mapping of both open-pit and underground rock faces. Data acquisition was also done on an open-pit setting. The same instruments were used with the exception that the uGPS Rapid Mapper, unavailable at the time of the surveys, was replaced by an iPad Pro 12. This research project evaluated the quality of SLM geospatial data in the underground environment. The estimated error of the Zeb-Revo is ± 0,03 m and ± 0,15 m for the uGPS. The results show that the Zeb-Revocan be used to calculate the volumes of an underground excavation. The volume difference between the Zeb-Revo and the reference value produced by the Faro Focus S70 scanner is at most 2% and the volume difference between the uGPS and the Faro Focus S70 scanner is more than 40%. However, special attention should be given to the drift of the navigation system of the mobile scanners. These analyses were not done with the iPad in the underground mine, but the error estimated from the open-pit surveys is in the order of 0,04 m. The research also demonstrated the possibility of measuring the orientations of geological structures in a rock mass using mobile lidar. In the open-pit environment, measuring the orientation of geological structures based on an SLM survey has satisfactorily quantified the orientation of geological structures. Depending on the method and the lidar scanner, angular deviations of set orientations ranged from 5° to 27° for Discontinuity Set Extractor(DSE) (Abellán, 2018), 5° to 12° for PointStudio (Maptek, 2021), and 10° to 30° for the kd-tree plugin (Dewez et al., 2016) from the reference compass survey. In the underground environment, automatic methods clearly do not distinguish between a discontinuity and the orientation of the rock face excavation. The automatic DSE method gives similar results for the three lidar systems and are partially different from the reference stereonet. The angular deviations of the orientations of the sets range from 8° to 73°. In addition, two sets seem to correspond to the orientation of the drift excavation rather than the natural geologic structure. A manual method can visually identify the discontinuities one by one, provided the quality of the lidar data is adequate. The manual PointStudio method combined with the Faro lidar were able to identify most of the sets with an angular deviation between 10° and 30° from the reference survey. The quality of the mobile lidar tested in the underground environment is not sufficient for manual extraction of discontinuities. In summary, DSE and PointStudio software do well what they were designed for, i.e. extract planes from a point cloud. However, users must be careful with the data they are processing and must have a sufficient knowledge of the site.

Page generated in 0.4859 seconds