• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 25
  • 2
  • Tagged with
  • 27
  • 27
  • 20
  • 17
  • 16
  • 12
  • 9
  • 6
  • 6
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Modélisation de la productivité forestière de Pinus radiata D. Don à partir de patrons de variabilité spatiotemporelle de l'espèce et de l'environnement

Miranda Salas, Marcelo 12 April 2018 (has links)
L'estimation de la productivité de la forêt pendant une période de temps déterminée est d'une importance vitale pour les activités de planification stratégique, tactique et opérationnelle de la gestion forestière des plantations de P. radiata. Dans cette optique, des modèles d'estimation basés sur des méthodes de régression sont utilisés, en ignorant d'habitude les relations spatiales et temporelles existantes à l'intérieur des écosystèmes forestiers, d'où découlent des problèmes dans les estimations. Dans cet esprit, l'objectif de cette recherche a été d'explorer un moyen d'incorporer de façon explicite l'information spatio-temporelle provenant des écosystèmes forestiers, afin d'améliorer les estimations de productivité forestière de P. radiata. Pour ceci, une approche basée sur la statistique spatiale a été utilisée pour décrire les échelles et les patrons spatiaux associés aux variables de surface terrière et hauteur des arbres et celles de l'environnement, élévation, pente, orientation et courbure du terrain. La présence de patrons de patches sur deux échelles spatiales et de l'anisotropie associée à la direction des rivières dominantes (Nord-Ouest - Sud-Est) a aussi été identifiée dans l'écosystème étudié. Ensuite, des modèles de régression spatiale et régression d'erreur spatiale ont été utilisés pour incorporer ces patrons aux estimations de productivité. Une amélioration dans l'estimation de la surface terrière et la hauteur des arbres a été obtenue et associée à l'inclusion de l'information provenant d'un voisinage spatial en relation avec la dimension de patches en deux échelles et la direction de l'anisotropie présente dans l'écosystème forestier. Finalement, une modification de la structure des modèles de régression spatiale et d'erreur spatiale a permis l'incorporation de la variabilité spatio-temporelle présente dans l'écosystème forestier, au moyen d'un voisinage spatio-temporel isotropique. L'information concernant les changements temporels de la structure spatiale de la forêt a été incorporée, obtenant ainsi des estimations de croissance plus précises. / The estimation of forest productivity at a given moment in time is vitally important for the activities of strategic, tactical and operational planning in forest management of P. radiata plantations. Several estimation models have been developed to this end, based on regression methods, usually setting aside the spatial-temporal relationships existing within the forestry ecosystems, thereby giving rise to problems in the estimations. Within this framework, the objective of this research was to explore a means to incorporate explicitly in to the models the spatial-temporal information of the forest ecosystems, so as to improve the estimations of forestry productivity in P. radiata plantations. To this end, an approach based on spatial statistics was used to describe the scales and spatial patterns associated with the variables of basal area and height of trees and of the environment, elevation, slope, orientation and terrain curvature. The presence of "patch patterns" at two spatial scales and anisotropy associated with the direction of the dominant rivers (North-west and South-east) were identified in the ecosystem under study. Subsequently, models of spatial regression and error regression were used to incorporate those patterns into the productivity estimations. An improvement in the estimation of basal area and tree height was achieved, and this was associated with the inclusion of information derived from a spatial neighbourhood related to the dimension of patches at two scales and the direction of the anisotropy present in the forest ecosystem. Finally, a modification in the structure of the spatial regression and spatial error models allowed the incorporation of the spatial-temporal variability present in the forestry environment. The information about the temporal changes in the spatial structure of the forest was incorporated by means of a spatial-temporal isotropic neighbourhood, thereby obtaining more accurate growth estimations.
12

Conception et développement d'une solution de diffusion des données géospatiales massives 3D dans un contexte de gestion de risque d'inondations

Benchaabane, Fethi 06 June 2022 (has links)
Au Québec, chaque année, les inondations printanières présentent un défi majeur pour les autorités québécoises. Ainsi, l'élaboration de nouveaux outils et de nouvelles méthodes pour diffuser et visualiser des données massives spatiotemporelles 3D dynamiques d'inondation est très important afin de mieux comprendre et gérer les risques reliés aux inondations. Cette recherche s'intéresse à la diffusion de données géospatiales massives 3D (modèles de bâtiments 3D, arbres, modèles numériques d'élévation de terrain (MNE), données LiDAR, imageries aériennes, etc.) en relation avec les inondations. Le problème est qu'il n'existe pas, à travers la littérature, des systèmes de diffusion efficaces des données massives 3D adaptées aux besoins de cette recherche. En ce sens, notre objectif général consiste à développer un outil de diffusion des données géospatiales massives 3D qui sont des bâtiments 3D et des modèles de terrains de haute résolution à l'échelle de la province du Québec. Les défis de diffusion du flux de données massives, nous ramènent à considérer la technique de tuilage 3D pour convertir les données brutes en formats et structures vectoriels plus légers et adaptés à la diffusion comme la spécification "3D Tiles" pour tuiler les bâtiments 3D, les nuages de points LiDAR et d'autres modèles géoréférencés 3D et le maillage irrégulier, notamment les TIN, pour tuiler les modèles numériques de terrain. Aussi, l'utilisation des techniques de traitement parallèle permet de gérer efficacement les flux massifs de données et d'améliorer le temps de traitement permettant ainsi la scalabilité et la flexibilité des systèmes existants. A cet effet, deux pipelines de tuilage ont été développés. Le premier pipeline concerne la création des tuiles de bâtiments 3D selon la spécification "3D Tiles". Le deuxième est pour créer des tuiles de terrain basées sur des maillages irréguliers. Ces pipelines sont ensuite intégrés dans un système de traitement distribué basé sur des conteneurs Docker afin de paralléliser les processus de traitements. Afin de tester l'efficacité et la validité du système développé, nous avons testé ce système sur un jeux de données massif d'environ 2.5 millions bâtiments 3D situés au Québec. Ces expérimentations ont permis de valider et de mesurer l'efficacité du système proposé par rapport à sa capacité de se mettre à l'échelle (Scalabilité) pour prendre en charge, efficacement, les flux massifs de données 3D. Ces expérimentations ont aussi permis de mettre en place des démarches d'optimisation permettant une meilleure performance dans la production et la diffusion des tuiles 3D. / Every year, floods present a major challenge for Quebec authorities. Thus, the development of new tools and methods to disseminate and visualize massive 3D dynamic flood data is very important to better understand and manage flood-related risks. This research focuses on the streaming of massive 3D geospatial data (3D building models, trees, digital elevation models (DEM), LiDAR data, aerial imagery, etc.) related to flooding. The problem is that there is no efficient streaming systems in the literature for massive 3D data adapted to the needs of this research. In this sense, our general objective is to develop a tool for the streaming of massive 3D geospatial data which are 3D buildings and high-resolution terrain models at the scale of the province of Quebec. The challenges of streaming massive data lead us to adopt the 3D tiling technique to convert raw data into lighter vector formats and structures suitable for streaming such as the "3D Tiles" specification to tile 3D buildings, LiDAR point clouds and other 3D georeferenced models and irregular meshes, including TIN, to tile digital terrain models. Also, the use of parallel processing techniques allows efficient management of massive data flows and improve processing time allowing the scalability and the flexibility of existing systems. For this purpose, two tiling pipelines have been developed. The first pipeline is for creating 3D building tiles according to the "3D Tiles" specification. The second is for creating terrain tiles based on irregular meshes. These pipelines are then integrated into a distributed processing system based on Docker containers in order to parallelize the treatment processes. To test the efficiency and validity of the developed system, we tested this system on a massive dataset of about 2.5 million 3D buildings located in Quebec. These experiments allowed us to validate and measure the efficiency of the proposed system to be scalable in order to efficiently handle massive 3D data flows. These experiments also allowed to set up optimization approaches allowing a better performance in the production and the streaming of 3D tiles.
13

Real Time Semantic Interoperability in ad hoc Networks of Geospatial Databases : disaster Management Context

Bakillah, Mohamed 18 April 2018 (has links)
Avec le développement rapide des technologies permettant la collecte et l’échange des données géospatiales, la quantité de bases de données géospatiales disponibles est en constante augmentation. Ces bases de données géospatiales représentent souvent une même réalité géographique de façon différente, et sont, par conséquent, sémantiquement hétérogènes. Afin que les utilisateurs de différentes bases de données puissent échanger des données et collaborer dans un but commun, ils doivent avoir une compréhension commune de la signification des données échangées et résoudre ces hétérogénéités, c’est-à-dire que l’interopérabilité sémantique doit être assurée. Il existe actuellement plusieurs approches visant à établir l’interopérabilité sémantique. Cependant, l’arrivée puis la récente prolifération des réseaux ad hoc modifient et rendent plus complexe la résolution du problème de l’interopérabilité sémantique. Les réseaux ad hoc de bases de données géospatiales sont des réseaux qui peuvent s’auto-organiser, pour des besoins ponctuels, sans qu’une structure particulière soit définie a priori. En raison de leur dynamicité, de l’autonomie des sources qui les composent, et du grand volume de sources disponibles, les approches dites « traditionnelles » qui ont été conçues pour établir l’interopérabilité sémantique entre deux sources ou un nombre limité et statique de sources ne sont plus adaptées. Néanmoins, bien que les caractéristiques d’une approche pour l’interopérabilité sémantique dans les réseaux ad hoc doivent permettre d’agir sur un grand volume de sources, il demeure essentiel de prendre en compte, dans la représentation de la sémantique des données, les caractéristiques particulières, les contextes et les dimensions spatiales, thématiques et temporelles des données géospatiales. Dans cette thèse, une nouvelle approche pour l’interopérabilité sémantique en temps réel dans les réseaux ad hoc de bases de données géospatiales est proposée afin de répondre à la fois aux problématiques engendrées par les réseaux ad hoc et les bases de données géospatiales. Les contributions de cette approche pour l’interopérabilité sémantique en temps réel concernent majoritairement la collaboration dynamique entre les utilisateurs de bases de données géospatiales du réseau ad hoc, la représentation et l’extraction des connaissances, le mapping sémantique automatisé, la similarité sémantique et la propagation des requêtes dans le réseau ad hoc. Le cadre conceptuel qui sous-tend l’approche se base sur les principes de la communication dans les réseaux sociaux. À la suite du cadre conceptuel qui établit les fondements de l’approche, cette thèse présente un nouveau modèle de représentation des coalitions de bases de données géospatiales, dans le but de faciliter, dans un contexte d’interopérabilité sémantique, la collaboration entre les utilisateurs de bases de données géospatiales du réseau. Sur la base de ce modèle, une approche de découverte des sources pertinentes et de formation des coalitions se basant sur les principes de l’analyse des réseaux est proposée. Afin de gérer les changements du réseau en temps réel, des opérateurs de gestion des changements dans les coalitions sont proposés. Une fois les coalitions établies, les échanges de données entre les membres d’une même coalition ou de coalitions différentes ne peuvent être assurées que si la représentation de la sémantique est suffisamment riche et que les ontologies qui décrivent les différentes bases de données sont sémantiquement réconciliées. Pour ce faire, nous avons développé dans cette thèse un nouveau modèle de représentation des concepts, le soit le Concept multi-vues augmenté (Multi-View Augmented Concept - MVAC) dont le rôle est d’enrichir les concepts des ontologies avec leurs différentes contextes, la sémantique de leurs propriétés spatiotemporelles, ainsi que les dépendances entre leurs caractéristiques. An Ensuite, une méthode pour générer les concepts MVAC est développée, laquelle comprend une méthode pour l’extraction des différentes vues d’un concept qui sont valides dans différents contextes, puis une méthode d’augmentation du concept qui extrait les dépendances implicites au moyen d’algorithme de fouille de règles d’association. Ensuite, deux modèles complémentaires furent développés pour résoudre les hétérogénéités sémantiques entre les concepts MVAC. Dans un premier lieu, un modèle graduel de mapping sémantique automatisé, le G-MAP, établit les relations sémantiques qualitatives entre les concepts MVAC au moyen de moteurs de raisonnement basé sur des règles d’inférence qui intègrent de nouveaux critères de matching. Ce modèle se distingue par sa capacité à prendre en compte une représentation plus riche et complexe des concepts. Puis, nous avons développé un nouveau modèle de similarité sémantique, Sim-Net, adapté aux réseaux ad hoc et basé sur le langage de la logique descriptive. La contribution des deux modèles permet une interprétation optimale par l’utilisateur de la signification des relations entre les concepts de différentes bases de données géospatiales, améliorant ainsi l’interopérabilité sémantique. La dernière composante est une approche multi-stratégies de propagation des requêtes dans le réseau ad hoc, où les stratégies, formalisées à l’aide du langage Lightweight Coordination Calculus (LCC) qui supporte les interactions basées sur des normes sociales et des contraintes dans un système distribué, représentent différents moyens employés pour communiquer dans les réseaux sociaux. L’approche de propagation intègre un algorithme d’adaptation en temps réel des stratégies aux changements qui modifient le réseau. L’approche a été implémentée sous forme de prototype utilisant la plateforme Java JXTA qui simule les interactions dynamiques entre des pairs et des groupes de pairs (réseau peer-to-peer). L’utilité, la faisabilité et les avantages de l’approche sont démontrés par un scénario de gestion de désastre naturel. Cette thèse apporte aussi une contribution supplémentaire en développant le nouveau concept de qualité de l’interopérabilité sémantique ainsi qu’un cadre pour l’évaluation de la qualité de l’interopérabilité sémantique en tant que processus. Ce cadre est utilisé à des fins d’évaluation pour valider l’approche. Ce concept de qualité de l’interopérabilité sémantique ouvre de nombreuses perspectives de recherches futures concernant la qualité des échanges de données dans un réseau et son effet sur la prise de décision. / The recent technological advances regarding the gathering and the sharing of geospatial data have made available important volume of geospatial data to potential users. Geospatial databases often represent the same geographical features but from different perspectives, and therefore, they are semantically heterogeneous. In order to support geospatial data sharing and collaboration between users of geospatial databases to achieve common goals, semantic heterogeneities must be resolved and users must have a shared understanding of the data being exchanged. That is, semantic interoperability of geospatial data must be achieved. At this time, numerous semantic interoperability approaches exist. However, the recent arrival and growing popularity of ad hoc networks has made the semantic interoperability problem more complex. Ad hoc networks of geospatial databases are network that self-organize for punctual needs and that do not rely on any predetermined structure. “Traditional” semantic interoperability approaches that were designed for two sources or for a limited static number of known sources are not suitable for ad hoc networks, which are dynamic and composed of a large number of autonomous sources. Nevertheless, while a semantic interoperability approach designed for ad hoc network should be scalable, it is essential to consider, when describing semantics of data, the particularities, the different contexts and the thematic, spatial and temporal aspects of geospatial data. In this thesis, a new approach for real time semantic interoperability in ad hoc network of geospatial databases that address the requirements posed by both geospatial databases and ad hoc networks is proposed. The main contributions of this approach for real time semantic interoperability are related to the dynamic collaboration among user agents of different geospatial databases, knowledge representation and extraction, automatic semantic mapping and semantic similarity, and query propagation in ad hoc network based on multi-agent theory. The conceptual framework that sets the foundation of the approach is based on principles of communication between agents in social network. Following the conceptual framework, this thesis proposes a new model for representing coalitions of geospatial databases that aim at supporting the collaboration among user agents of different geospatial databases of the network, in a semantic interoperability context. Based on that model, a new approach for discovering relevant sources and coalitions mining based on network analysis techniques is proposed. Operators for the management of events affecting coalitions are defined to manage real times changes occurring in the ad hoc network. Once coalitions are established, data exchanges inside a coalition or between different coalitions are possible only if the representation of semantics of rich enough, and the semantic reconciliation is achieved between ontologies describing the different geospatial databases. To achieve this goal, in this thesis we have defined a new representation model for concepts, the Multi-View Augmented Concept (MVAC). The role of this model is to enrich concepts of ontologies with their various contexts, the semantics of their spatiotemporal properties, and the dependencies between their features. A method to generate MVAC concept was developed. This method includes a method for the extraction of the different views of a concept that correspond to the different contexts, and an augmentation method based on association rule mining to extract dependencies between features. Then, two complementary models to resolve semantic heterogeneity between MVAC concepts were developed. First, a gradual automated semantic mapping model, the G-MAP, discovers qualitative semantic relations between MVAC concepts using rule-based reasoning engines that integrate new matching criteria. The ability of this model to take as input a rich and complex representation of concepts constitutes the contribution of this model with respect to existing ones. Second, we have developed Sim-Net, a Description Logic- based semantic similarity model adapted to ad hoc networks. The combination of both models supports an optimal interpretation by the user of the meaning of relations between concepts of different geospatial databases, improving semantic interoperability. The last component is a multi-strategy query propagation approach for ad hoc network. Strategies are formalized with the Lightweight Coordination Calculus (LCC), which support interactions between agents based on social norms and constraints in a distributed system, and they represent the different strategies employed to communicate in social networks. An algorithm for the real time adaptation of strategies to changes affecting the network is proposed. The approach was implemented with a prototype using the Java JXTA platform that simulates dynamic interaction between peers and groups of peers. The advantages, the usefulness and the feasibility of the approach were demonstrated with a disaster management scenario. An additional contribution is made in this thesis with the development of the new notion of semantic interoperability quality, and a framework to assess semantic interoperability quality. This framework was used to validate the approach. This new concept of semantic interoperability quality opens many new research perspectives with respect to the quality of data exchanges in network and its impact on decision-making.
14

Fouille de données : vers une nouvelle approche intégrant de façon cohérente et transparente la composante spatiale

Ouattara, Mamadou 16 April 2018 (has links)
Depuis quelques décennies, on assiste à une présence de plus en plus accrue de l’information géo-spatiale au sein des organisations. Cela a eu pour conséquence un stockage massif d’informations de ce type. Ce phénomène, combiné au potentiel d’informations que renferment ces données, on fait naître le besoin d’en apprendre davantage sur elles, de les utiliser à des fins d’extraction de connaissances qui puissent servir de support au processus de décision de l’entreprise. Pour cela, plusieurs approches ont été envisagées dont premièrement la mise à contribution des outils de fouille de données « traditionnelle ». Mais face à la particularité de l’information géo-spatiale, cette approche s’est soldée par un échec. De cela, est apparue la nécessité d’ériger le processus d’extraction de connaissances à partir de données géographiques en un domaine à part entière : le Geographic Knowlegde Discovery (GKD). La réponse à cette problématique, par le GKD, s’est traduite par la mise en œuvre d’approches qu’on peut catégoriser en deux grandes catégories: les approches dites de prétraitement et celles de traitement dynamique de l’information spatiale. Pour faire face aux limites de ces méthodes et outils nous proposons une nouvelle approche intégrée qui exploite l’existant en matière de fouille de données « traditionnelle ». Cette approche, à cheval entre les deux précédentes vise comme objectif principal, le support du type géo-spatial à toutes les étapes du processus de fouille de données. Pour cela, cette approche s’attachera à exploiter les relations usuelles que les entités géo-spatiales entretiennent entre elles. Un cadre viendra par la suite décrire comment cette approche supporte la composante spatiale en mettant à contribution des bibliothèques de traitement de la donnée géo-spatiale et les outils de fouille « traditionnelle » / In recent decades, geospatial data has been more and more present within our organization. This has resulted in massive storage of such information and this, combined with the learning potential of such information, gives birth to the need to learn from these data, to extract knowledge that can be useful in supporting decision-making process. For this purpose, several approaches have been proposed. Among this, the first has been to deal with existing data mining tools in order to extract any knowledge of such data. But due to a specificity of geospatial information, this approach failed. From this arose the need to erect the process of extracting knowledge from geospatial data in its own right; this lead to Geographic Knowledge Discovery. The answer to this problem, by GKD, is reflected in the implementation of approaches that can be categorized into two: the so-called pre-processing approaches and the dynamic treatment of spatial relationships. Given the limitations of these approaches we propose a new approach that exploits the existing data mining tools. This approach can be seen as a compromise of the two previous. It main objective is to support geospatial data type during all steps of data mining process. To do this, the proposed approach will exploit the usual relationships that geo-spatial entities share each other. A framework will then describe how this approach supports the spatial component involving geo-spatial libraries and "traditional" data mining tools
15

Improving knowledge about the risks of inappropriate uses of geospatial data by introducing a collaborative approach in the design of geospatial databases

Grira, Joël 20 April 2018 (has links)
La disponibilité accrue de l’information géospatiale est, de nos jours, une réalité que plusieurs organisations, et même le grand public, tentent de rentabiliser; la possibilité de réutilisation des jeux de données est désormais une alternative envisageable par les organisations compte tenu des économies de coûts qui en résulteraient. La qualité de données de ces jeux de données peut être variable et discutable selon le contexte d’utilisation. L’enjeu d’inadéquation à l’utilisation de ces données devient d’autant plus important lorsqu’il y a disparité entre les nombreuses expertises des utilisateurs finaux de la donnée géospatiale. La gestion des risques d’usages inappropriés de l’information géospatiale a fait l’objet de plusieurs recherches au cours des quinze dernières années. Dans ce contexte, plusieurs approches ont été proposées pour traiter ces risques : parmi ces approches, certaines sont préventives et d’autres sont plutôt palliatives et gèrent le risque après l'occurrence de ses conséquences; néanmoins, ces approches sont souvent basées sur des initiatives ad-hoc non systémiques. Ainsi, pendant le processus de conception de la base de données géospatiale, l’analyse de risque n’est pas toujours effectuée conformément aux principes d’ingénierie des exigences (Requirements Engineering) ni aux orientations et recommandations des normes et standards ISO. Dans cette thèse, nous émettons l'hypothèse qu’il est possible de définir une nouvelle approche préventive pour l’identification et l’analyse des risques liés à des usages inappropriés de la donnée géospatiale. Nous pensons que l’expertise et la connaissance détenues par les experts (i.e. experts en geoTI), ainsi que par les utilisateurs professionnels de la donnée géospatiale dans le cadre institutionnel de leurs fonctions (i.e. experts du domaine d'application), constituent un élément clé dans l’évaluation des risques liés aux usages inadéquats de ladite donnée, d’où l’importance d’enrichir cette connaissance. Ainsi, nous passons en revue le processus de conception des bases de données géospatiales et proposons une approche collaborative d’analyse des exigences axée sur l’utilisateur. Dans le cadre de cette approche, l’utilisateur expert et professionnel est impliqué dans un processus collaboratif favorisant l’identification a priori des cas d’usages inappropriés. Ensuite, en passant en revue la recherche en analyse de risques, nous proposons une intégration systémique du processus d’analyse de risque au processus de la conception de bases de données géospatiales et ce, via la technique Delphi. Finalement, toujours dans le cadre d’une approche collaborative, un référentiel ontologique de risque est proposé pour enrichir les connaissances sur les risques et pour diffuser cette connaissance aux concepteurs et utilisateurs finaux. L’approche est implantée sous une plateforme web pour mettre en œuvre les concepts et montrer sa faisabilité. / Nowadays, the increased availability of geospatial information is a reality that many organizations, and even the general public, are trying to transform to a financial benefit. The reusability of datasets is now a viable alternative that may help organizations to achieve cost savings. The quality of these datasets may vary depending on the usage context. The issue of geospatial data misuse becomes even more important because of the disparity between the different expertises of the geospatial data end-users. Managing the risks of geospatial data misuse has been the subject of several studies over the past fifteen years. In this context, several approaches have been proposed to address these risks, namely preventive approaches and palliative approaches. However, these approaches are often based on ad-hoc initiatives. Thus, during the design process of the geospatial database, risk analysis is not always carried out in accordance neither with the principles/guidelines of requirements engineering nor with the recommendations of ISO standards. In this thesis, we suppose that it is possible to define a preventive approach for the identification and analysis of risks associated to inappropriate use of geospatial data. We believe that the expertise and knowledge held by experts and users of geospatial data are key elements for the assessment of risks of geospatial data misuse of this data. Hence, it becomes important to enrich that knowledge. Thus, we review the geospatial data design process and propose a collaborative and user-centric approach for requirements analysis. Under this approach, the user is involved in a collaborative process that helps provide an a priori identification of inappropriate use of the underlying data. Then, by reviewing research in the domain of risk analysis, we propose to systematically integrate risk analysis – using the Delphi technique – through the design of geospatial databases. Finally, still in the context of a collaborative approach, an ontological risk repository is proposed to enrich the knowledge about the risks of data misuse and to disseminate this knowledge to the design team, developers and end-users. The approach is then implemented using a web platform in order to demonstrate its feasibility and to get the concepts working within a concrete prototype.
16

Intégration de données temps-réel issues de capteurs dans un entrepôt de données géo-décisionnel

Mathieu, Jean 17 April 2018 (has links)
Nous avons pu, au cours des dernières années, assister à une augmentation du nombre de capteurs utilisés pour mesurer des phénomènes de plus en plus variés. En effet, nous pouvons aujourd'hui utiliser les capteurs pour mesurer un niveau d'eau, une position (GPS), une température et même le rythme cardiaque d'un individu. La grande diversité de capteurs fait d'eux aujourd'hui des outils par excellence en matière d'acquisition de données. En parallèle à cette effervescence, les outils d'analyse ont également évolué depuis les bases de données transactionnelles et ont mené à l'apparition d'une nouvelle famille d’outils, appelés systèmes d’analyse (systèmes décisionnels), qui répond à des besoins d’analyse globale sur les données. Les entrepôts de données et outils OLAP (On-Line Analytical Processing), qui font partie de cette famille, permettent dorénavant aux décideurs d'analyser l'énorme volume de données dont ils disposent, de réaliser des comparaisons dans le temps et de construire des graphiques statistiques à l’aide de simples clics de la souris. Les nombreux types de capteurs peuvent certainement apporter de la richesse à une analyse, mais nécessitent de longs travaux d'intégration pour les amener jusqu'à un entrepôt géo-décisionnel, qui est au centre du processus de prise de décision. Les différents modèles de capteurs, types de données et moyens de transférer les données sont encore aujourd'hui des obstacles non négligeables à l'intégration de données issues de capteurs dans un entrepôt géo-décisionnel. Également, les entrepôts de données géo-décisionnels actuels ne sont pas initialement conçus pour accueillir de nouvelles données sur une base fréquente. Puisque l'utilisation de l'entrepôt par les utilisateurs est restreinte lors d'une mise à jour, les nouvelles données sont généralement ajoutées sur une base hebdomadaire, mensuelle, etc. Il existe pourtant des entrepôts de données capables d'être mis à jour plusieurs fois par jour sans que les performances lors de leur exploitation ne soient atteintes, les entrepôts de données temps-réel (EDTR). Toutefois, cette technologie est encore aujourd’hui peu courante, très coûteuse et peu développée. Ces travaux de recherche visent donc à développer une approche permettant de publier et standardiser les données temps-réel issues de capteurs et de les intégrer dans un entrepôt géo-décisionnel conventionnel. Une stratégie optimale de mise à jour de l'entrepôt a également été développée afin que les nouvelles données puissent être ajoutées aux analyses sans que la qualité de l'exploitation de l'entrepôt par les utilisateurs ne soit remise en cause. / In the last decade, the use of sensors for measuring various phenomenons has greatly increased. As such, we can now make use of sensors to measure GPS position, temperature and even the heartbeats of a person. Nowadays, the wide diversity of sensor makes them the best tools to gather data. Along with this effervescence, analysis tools have also advanced since the creation of transactional databases, leading to a new category of tools, analysis systems (Business Intelligence (BI)), which respond to the need of the global analysis of the data. Data warehouses and OLAP (On-Line Analytical Processing) tools, which belong to this category, enable users to analyze big volumes of data, execute time-based requests and build statistic graphs in a few simple mouse clicks. Although the various types of sensor can surely enrich any analysis, such data requires heavy integration processes to be driven into the data warehouse, centerpiece of any decision-making process. The different data types produced by sensors, sensor models and ways to transfer such data are even today significant obstacles to sensors data streams integration in a geo-decisional data warehouse. Also, actual geo-decisional data warehouses are not initially built to welcome new data on a high frequency. Since the performances of a data warehouse are restricted during an update, new data is usually added weekly, monthly, etc. However, some data warehouses, called Real-Time Data Warehouses (RTDW), are able to be updated several times a day without letting its performance diminish during the process. But this technology is not very common, very costly and in most of cases considered as "beta" versions. Therefore, this research aims to develop an approach allowing to publish and normalize real-time sensors data streams and to integrate it into a classic data warehouse. An optimized update strategy has also been developed so the frequent new data can be added to the analysis without affecting the data warehouse performances.
17

Nouvelle méthode pour mieux informer les utilisateurs de portails Web sur les usages inappropriés de données géospatiales

Roy, Tania 19 April 2018 (has links)
Tableau d’honneur de la Faculté des études supérieures et postdoctorales, 2013-2014. / Dans le cas de portails Web donnant accès à de multiples jeux de données, il peut être difficile pour un utilisateur métier non expert en données géospatiales d’évaluer si les données présentent des risques d’utilisation, la seule information généralement disponible étant les métadonnées. Elles sont généralement présentées dans un langage technique, ce qui peut limiter la compréhension de leur portée sur les décisions de l’utilisateur. L’objectif principal de ce mémoire est de proposer une approche pour aider les utilisateurs et producteurs de données géospatiales à identifier et gérer les risques reliés à l’utilisation envisagée de données acquises dans un portail Web a posteriori de la production des données. L’approche utilisée pour répondre à nos objectifs consiste en une série de questions structurées adressées à l’utilisateur dont les réponses permettent d’identifier des risques. Dans le cas où celui-ci identifie des risques d’utilisation, des actions spécifiques de gestion du risque sont suggérées. / In the case of Web portals providing access to multiple data sets, it may be difficult for a non-expert user to assess if data may present risks; the only information generally available being metadata. These metadata are generally presented in a technical language, and it can be difficult for a non-expert user to understand the scope of the metadata on their decisions. The main objective of this thesis is to propose an approach for helping users and producers of geospatial data to identify and manage risks related to the planned use of data acquired through a Web portal, a posteriori of the production of data. The approach developed uses a series of structured questions to be answered by a user of geospatial data. Depending on the answers, the user can identify risks of use. When risks of data misuse are identified, specific risk management actions are suggested.
18

Le raisonnement à base de logique propositionnelle à l'appui de la fusion et de la révision de bases de données géospatiales

Noël de Tilly, Antoine 13 April 2018 (has links)
Le but de ce mémoire était d’effectuer, dans un contexte géospatial, une comparai- son d’une approche de raisonnement qualitatif basée sur le PROLOG avec une autre approche reposant sur l’ASP. La principale question que nous posons est la suivante : Le moteur de raisonnement Smodels rendant possible la mise en oeuvre du raisonnement non monotone poussé et faisant intervenir le concept de modèle stable peut-il nous permettre de résoudre des problèmes de vérification de cohérence ontologique et des problèmes de révision dans le contexte de la géomatique ? Pour y répondre, nous avons procédé à une série de tests sur un échantillon de la Base nationale de données topographiques (BNDT). À la lumière des résultats obtenus, cette approche se montre très efficace et contribue à l’amélioration de la cohérence de l’information géospatiale et du raisonnement spatial réalisé à partir de cette dernière. / The objective of this thesis is to make a comparison between a qualitative reasoning approach based on PROLOG with another approach based on ASP. Our principal research question was the following : Can the Smodels reasoning engine, allowing for advanced non monotonic reasoning and introducing the stable model concept, allow us to solve ontological consistency checking problems as well as revision problems in a geomatic context ? To answer this question, we carried out a series of tests on a cross-section from the National Topographical Database (NTDB). In the light of the results obtained, this approach has proven very effective and contributes to the amelioration of geospatial information consistency and to the resultant improvement in spatial reasoning.
19

Conception et développement d'un service web de mise à jour incrémentielle pour les cubes de données spatiales

Declercq, Charlotte 13 April 2018 (has links)
Les applications géodécisionnelles évoluent vers le temps réel et nécessitent un mécanisme de mise à jour rapide. Or, ce processus est complexe et très coûteux en temps de calcul à cause de la structure dénormalisée des données, stockées sous forme de cube. La méthode classique qui consistait à reconstruire entièrement le cube de données prend de plus en plus de temps au fur et à mesure que le cube grossit, et n'est plus envisageable. De nouvelles méthodes de mise à jour dites incrémentielles ont fait leurs preuves dans le domaine du Business Intelligence. Malheureusement, de telles méthodes n'ont jamais été transposées en géomatique décisionnelle, car les données géométriques nécessitent des traitements spécifiques et complexes. La mise à jour des cubes de données spatiales soulève des problèmes jusqu'alors inconnus dans les cubes de données classiques. En plus de cela, une large confusion règne autour de la notion de mise à jour dans les entrepôts de données. On remarque également que l'architecture des entrepôts de données suit la tendance actuelle d'évolution des architectures de systèmes informatiques vers une distribution des tâches et des ressources, au détriment des systèmes centralisés, et vers le développement de systèmes interopérables. Les architectures en émergence, dites orientées services deviennent dans ce sens très populaires. Cependant, les services dédiés à des tâches de mise à jour de cubes sont pour l'heure inexistants, même si ceux-ci représenteraient un apport indéniable pour permettre la prise de décision sur des données toujours à jour et cohérentes. Le but de ce mémoire est d'élaborer des méthodes de mise à jour incrémentielles pour les cubes spatiaux et d'inscrire le dispositif dans une architecture orientée services. La formulation de typologies pour la gestion de l'entrepôt de données et pour la mise à jour de cube a servi de base à la réflexion. Les méthodes de mise à jour incrémentielles existantes pour les cubes non spatiaux ont été passées en revue et ont permis d'imaginer de nouvelles méthodes incrémentielles adaptées aux cubes spatiaux. Pour finir, une architecture orientée services a été conçue, elle intègre tous les composants de l'entrepôt de données et contient le service web de mise à jour de cube, qui expose les différentes méthodes proposées.
20

Conception et développement d'un service Web de constitution de mini cubes SOLAP pour clients mobiles

Dubé, Étienne 13 April 2018 (has links)
Les applications d’aide à la décision spatiale telles que SOLAP (Spatial OLAP) sont traditionnellement conçues pour les environnements informatiques de bureau. L’adaptation des applications SOLAP aux contextes d’utilisation mobile (e.g. PDA et téléphones mobiles) pose certains problèmes dus à la nature et aux contraintes de ces environnements. Ce projet de recherche vise à apporter une solution, basée sur une architecture orientée services (SOA), pour l’adaptation des cubes de données SOLAP aux environnements mobiles. Il s’agit d’un service Web capable de transformer les cubes SOLAP des entrepôts de données géo-décisionnelles en mini-cubes de taille réduite, adaptés aux clients mobiles. Le service permet de sélectionner un sous-ensemble des cubes existants par l’intermédiaire d’opérateurs paramétrables, d’appliquer des traitements de simplification aux membres spatiaux, et finalement de transmettre ces données en format XML. Ce travail de recherche ouvre donc la voie à la conception et au développement de nouvelles applications géospatiales décisionnelles mobiles. / Decision support systems such as SOLAP (Spatial OLAP) have been originally designed as desktop applications. Adapting SOLAP applications to mobility contexts (e.g. using PDAs and mobile phones) pose some challenges due to the constraints of these environments. This research projects aims to provide a solution, based on a Service Oriented Architecture (SOA), for adapting SOLAP data cubes to mobile environments. It consists of a Web service which is capable of transforming SOLAP cubes from spatial data warehouses, in order to create mini-cubes of reduced size, suitable for mobile clients. This service allows selecting a subset of existing cubes (using parameterizable operators), applying simplification algorithms to spatial members, and finally transfering the data in an XML format. This research opens the way to the design and development of new geospatial decisional mobile applications.

Page generated in 0.0622 seconds