• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 173
  • 48
  • 19
  • Tagged with
  • 237
  • 237
  • 87
  • 62
  • 53
  • 46
  • 45
  • 43
  • 39
  • 38
  • 38
  • 35
  • 32
  • 32
  • 26
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Plans de migration de systèmes patrimoniaux vers des ERP

Darras, Eric L. 11 April 2018 (has links)
Les progiciels de gestion intégrés (ERP) sont des applications fonctionnant à travers une organisation qui, grâce à leur intégration, automatisent les processus d’affaires de l’organisation. Les ERP se sont rapidement imposés dans l’industrie pour remplacer des applications patrimoniales. La pratique démontre que la majorité des déploiements de ERP dépassent leurs budgets et leurs échéances, par conséquent la recherche s’est mise à étudier les projets de migration pour fournir un cadre de déploiement optimal. Peu d’exemples de déploiement dans de grandes organisations sont documentés rigoureusement. Les applications ERP sont divisées en modules qui doivent être connectés à l’environnement patrimonial de l’organisation pour fournir des avantages concurrentiels. L’intégration des applications de l’entreprise (EAI) est définie comme le processus d’intégration d’applications avec l’environnement informatique. Le déploiement d’applications ERP peut être aisé lorsque les organisations possèdent une structure hiérarchique simple et réalisent des opérations dans un ou quelques lieux géographiques. Mais lorsque les organisations ont une structure hiérarchique complexe et sont géographiquement dispersés, le déploiement implique des choix, des défis techniques et de gestion uniques. Ce mémoire résume les stratégies de migration, les meilleures pratiques de réingénierie des processus d’affaires, l’analyse des applications patrimoniales et l’influence de la centralisation du pouvoir sur les processus d’une organisation. / Enterprise Resource Planning (ERP) systems are enterprise wide systems which, because of their integration, automate many business processes of a company. They have rapidly become the de facto industry standard for replacement of legacy systems. Because there is evidence that the overwhelming majority of ERP implementations exceed their budget and their time allocations, researchers have begun to analyse ERP implementation in case studies in order to provide an implementation framework which maximises efficiencies. Few examples of large organisation implementations are thoroughly documented. ERP applications are divided into modules that must be connected to an organisation's software environment to provide leverage. Enterprise Application Integration (EAI) is defined as the process of integrating enterprise systems with existing applications. Implementing ERP systems can be straightforward when organizations are simply structured and operate in one or a few locations. But when organizations are structurally complex and geographically dispersed, implementing ERP systems involves difficult, possibly unique, technical and managerial choices and challenges. This research summarises implementation strategies, best practices to reengineer business processes, analyse legacy software and the influence of centralisation of power on organisational processes.
72

Conception d'un système multidimensionnel d'information sur la qualité des données géospatiales

Devillers, Rodolphe 11 April 2018 (has links)
L’information géographique est maintenant un produit de masse fréquemment manipulé par des utilisateurs non-experts en géomatique qui ont peu ou pas de connaissances de la qualité des données qu’ils utilisent. Ce contexte accroît significativement les risques de mauvaise utilisation des données et ainsi les risques de conséquence néfaste résultant de ces mauvaises utilisations. Cette thèse vise à fournir à des utilisateurs experts ou des experts en qualité une approche leur permettant d’évaluer la qualité des données et ainsi être à même de conseiller des utilisateurs non-experts dans leur utilisation des données. Cette approche se base sur une structuration des données de qualité dans une base de données multidimensionnelle et une communication dynamique et contextuelle utilisant des indicateurs de qualité affichés dans un système SOLAP (Spatial On-Line Analytical Processing) combiné à un système d’information géographique. / Nowadays Geographic information is a mass-product often manipulated by users without expertise in geomatics and who have little or no knowledge about the quality of the data being manipulated. Such context significantly increases the risks of data misuse and of negative consequences resulting from these misuses. This thesis aims at providing expert-users and data-quality experts with a new approach allowing them to better evaluate spatial data quality in order to advise non-expert users. This approach is based on the management of quality information within a multidimensional database and on the dynamic and contextual exploration of quality information through quality indicators displayed into a SOLAP system (Spatial On-Line Analytical Processing) built on a Geographical Information System (GIS).
73

Automated generation of geometrically-precise and semantically-informed virtual geographic environnements populated with spatially-reasoning agents

Mekni, Mehdi 16 April 2018 (has links)
La Géo-Simulation Multi-Agent (GSMA) est un paradigme de modélisation et de simulation de phénomènes dynamiques dans une variété de domaines d'applications tels que le domaine du transport, le domaine des télécommunications, le domaine environnemental, etc. La GSMA est utilisée pour étudier et analyser des phénomènes qui mettent en jeu un grand nombre d'acteurs simulés (implémentés par des agents) qui évoluent et interagissent avec une représentation explicite de l'espace qu'on appelle Environnement Géographique Virtuel (EGV). Afin de pouvoir interagir avec son environnement géographique qui peut être dynamique, complexe et étendu (à grande échelle), un agent doit d'abord disposer d'une représentation détaillée de ce dernier. Les EGV classiques se limitent généralement à une représentation géométrique du monde réel laissant de côté les informations topologiques et sémantiques qui le caractérisent. Ceci a pour conséquence d'une part de produire des simulations multi-agents non plausibles, et, d'autre part, de réduire les capacités de raisonnement spatial des agents situés. La planification de chemin est un exemple typique de raisonnement spatial dont un agent pourrait avoir besoin dans une GSMA. Les approches classiques de planification de chemin se limitent à calculer un chemin qui lie deux positions situées dans l'espace et qui soit sans obstacle. Ces approches ne prennent pas en compte les caractéristiques de l'environnement (topologiques et sémantiques), ni celles des agents (types et capacités). Les agents situés ne possèdent donc pas de moyens leur permettant d'acquérir les connaissances nécessaires sur l'environnement virtuel pour pouvoir prendre une décision spatiale informée. Pour répondre à ces limites, nous proposons une nouvelle approche pour générer automatiquement des Environnements Géographiques Virtuels Informés (EGVI) en utilisant les données fournies par les Systèmes d'Information Géographique (SIG) enrichies par des informations sémantiques pour produire des GSMA précises et plus réalistes. De plus, nous présentons un algorithme de planification hiérarchique de chemin qui tire avantage de la description enrichie et optimisée de l'EGVI pour fournir aux agents un chemin qui tient compte à la fois des caractéristiques de leur environnement virtuel et de leurs types et capacités. Finalement, nous proposons une approche pour la gestion des connaissances sur l'environnement virtuel qui vise à supporter la prise de décision informée et le raisonnement spatial des agents situés.
74

Conception et développement d'un SIG 3D dans une approche de service Web : exemple d'une application en modélisation géologique

Desgagné, Étienne 16 April 2018 (has links)
Plusieurs domaines d’application comme la géologie, l’archéologie, ou l’architecture requièrent une gestion explicite de la 3e dimension pour aider, appuyer et réaliser adéquatement leur processus d’analyse et de prise de décision. Mais avons-nous à disposition les outils adéquats qui gèrent explicitement cette 3e dimension tout en appuyant la prise de décision dans des contextes spatiaux? Par exemple, les outils de conception assistée par ordinateur (CAO) offrent plusieurs fonctionnalités pour réaliser la modélisation volumique, mais sont plus limités quant aux fonctionnalités d’analyse spatiale et d’interrogation des données descriptives. Les systèmes d’information géographiques (SIG) et les systèmes de gestion de base de données (SGBD) spatiaux, quant à eux, permettent de visualiser et stocker certaines formes de modèles 3D mais n’offrent que très peu des fonctionnalités de modélisation et d’analyse que ces systèmes offrent habituellement pour le 2D. Du côté de la standardisation, l’ISO et l’OGC ont commencé à réviser certains standards comme le Schéma Spatial ISO 19107 et le Geography Markup Language (GML) afin de normaliser la gestion de la 3e dimension des données géométriques. Ce travail de recherche présente un inventaire des capacités 3D des principales géotechnologies et propose ce que nous pourrions nommer les caractéristiques fondamentales d’un SIG 3D s’appuyant sur une architecture multi tiers (client, serveur et base de données) et exploitant le concept de service Web. Cette architecture offre à partir d’un outil-client des capacités de modélisation 3D et d’interrogation des propriétés spatiales et descriptives d’un modèle 3D stocké au sein d’une base de données sur un serveur distant. Le tout, réalisé à travers le Web et implémentant les standards tels que le WFS, le GML et le Schéma Spatial ISO 19107. Pour valider ces propositions, le développement d’un prototype le Web Geological Feature Server (WGFS) a été réalisé. Le WGFS s’appuie en grande partie sur des composants logiciels open source et donne accès en lecture et en écriture à partir du logiciel CAO Gocad à des données géologiques 3D stockées en format XML dans une base de données MySQL. Son serveur d’applications (Tomcat couplé à Deegree), regroupe la logique applicative ainsi que les bases d’une bibliothèque d’opérateurs spatiaux 3D dont un premier opérateur, le 3D « bounding box », a été implémenté. / Several application domains like Geology, Archeology and Architecture require an explicit management of the 3rd dimension to adequately support the analysis and decision-making process. But do we currently have the adequate tools to manage this 3rd dimension? For example, Computer Assisted Design (CAD) systems are reliable for modeling solids but have limited capability for spatial analysis and data storage. Geographic Information Systems (GIS) and Database Management Systems (DBMS) can handle visualization and storage for some 3D models but they only offer a small portion of the modeling and analysis capacities that they generally offer in 2D. Meanwhile, the International Organization for Standardization (ISO) and the Open Geospatial Consortium OGC started to update some of their standards like the ISO 19107 Spatial Schema and the Geography Markup Language (GML) in order to normalize the management of the 3rd dimension of spatial data. The current study provides a report on the capabilities of available geotechnologies to manage 3D spatial data and presents the fundamental characteristics of a new 3D-GIS based on a multi-tiered approach (client, server and database) with built-in web services. The architecture of this system provides a user with geometrical modeling, spatial analysis and querying capabilities of a 3D model stored with his descriptive properties in a database on a remote server. All this, carried out through the Web and implementing standards such as the WFS specification, the GML language and the ISO 19107 Spatial Schema. To test the feasibility of these proposals, a prototype of a Web Geological Feature Server (WGFS) is developed. The WGFS is an open source based framework that provides read/write access from the CAD software Gocad to 3D geological data (extracted from SIGEOM database) stored in XML format in a MySQL database. Its application server (Tomcat coupled to Deegree), gathers applicative logic as well as the bases of a 3D spatial operators library whose first operator, the 3D bounding box, has been implemented.
75

La spatialité algorithmique : apports, limites et réductions de la personnalisation algorithmique dans l'assistance à la navigation et au wayfinding

Quesnot, Teriitutea 24 April 2018 (has links)
La présente thèse de doctorat s’intéresse à l’assistance à la navigation et à la planification d’itinéraires (wayfinding) fournie par les systèmes d’aide à la navigation — communément appelés « GPS » — et les plateformes cartographiques en ligne (p. ex. Google Maps). Les sciences cognitives, qui forment avec la géographie humaine le socle théorique et conceptuel de cette thèse, offrent deux énoncés de base : des instructions de navigation optimales incluent nécessairement des points de repère à chaque changement de direction ; l’aide au wayfinding à partir d’un support cartographique n’est effective que si l’utilisateur acquiert ou dispose d’un minimum de connaissances spatiales. Dans un contexte où les données massives (Big data) prennent une ampleur considérable, la personnalisation algorithmique tend à s’imposer comme une norme ; une fonctionnalité que tout système « intelligent » se doit de proposer à ses utilisateurs. Pour une partie de la communauté scientifique, la personnalisation d’instructions de navigation et d’itinéraires est donc synonyme d’évolution. Cette assertion mérite cependant d’être confrontée à l’épreuve des faits. Car après réflexion, une personne qui parcourt un environnement connu utilise-t-elle nécessairement un GPS ? Auquel cas, a-t-elle forcément besoin d’un point de repère familier à chaque changement direction ? Dans le même esprit, a-t-elle réellement besoin d’un itinéraire personnalisé lorsqu’elle prépare ses déplacements à l’aide d’une plateforme cartographique ? Évaluer l’impact de la familiarité spatiale dans le choix de points de repère (en situation de navigation) et la planification d’itinéraires (à partir d’une plateforme cartographique) constitue l’objectif de recherche principal de cette thèse. Celle-ci s’organise en deux volets complémentaires. Le premier se propose de vérifier à partir d’une expérimentation de navigation virtuelle s’il existe bien une relation statistiquement significative entre la familiarité spatiale et la saillance sémantique des lieux urbains. Le second volet se veut plus qualitatif et explore dans un premier temps les usages des plateformes cartographiques par le biais d’entretiens semi-directifs. Les stratégies cognitives de wayfinders familiers et étrangers aux villes de Québec et Montréal ont été analysées dans un second temps à partir d’expérimentations basées sur la méthode de la pensée à voix haute. Spécifiquement, les résultats de cette recherche démontrent que les lieux qui bénéficient d’une attraction sémantique élevée captent l’attention des individus qui ont une connaissance préalable de l’environnement parcouru. Ces mêmes individus ont par ailleurs tendance à sélectionner des points de repère familiers le long des itinéraires calculés automatiquement par la plateforme cartographique. Si ces résultats accréditent la thèse algorithmique, il est important de souligner que cette manière de procéder limite l’acquisition de nouvelles connaissances spatiales. Elle peut également engendrer d’autres dommages chez l’utilisateur comme une dépendance vis-à-vis du système ou bien une diminution de sa capacité à interpréter une carte. Dans la mesure où ces éléments remettent en question les bénéfices de la personnalisation des systèmes d’aide à la navigation et au wayfinding, il serait sans doute plus judicieux d’envisager des solutions qui favorisent l’engagement actif de l’utilisateur ; notamment dans la composition de l’itinéraire. / This Ph.D. research focuses on navigational and wayfinding aid provided by tools such as GPS systems and webmapping platforms (e.g. Google Maps). Cognitive sciences, which constitute the theoretical and conceptual foundation of this thesis along with human geography, show that optimal navigational instructions necessarily include landmarks along decision points (i.e. intersections where people have to change direction according to the scheduled itinerary). In addition, wayfinding assistance can be considered as truly effective only if users have (or acquire) a minimal spatial knowledge of the area they plan to visit. The Big Data phenomenon is now on the rise so that algorithmic personalization is considered as a standard; a feature that « smart » systems should offer. In this context, some researchers advocate the personalization of navigational and wayfinding assistance. However, this statement must be empirically supported. Indeed, do GPS users necessarily rely on such tools when they travel within familiar areas? In which case, do they need some navigational instructions that systematically include a familiar landmark along each decision point? In the same vein, do they really need a customized route for planning their travels on webmapping platforms? Actually, assessing the impact of spatial familiarity on both the landmark selection (during navigation) and the route planning (through a webmapping platform) is the main objective of this research. Specifically, the thesis is organized into two main parts. The first one is quantitative per se and investigates through a virtual navigation experiment the significance of the relationship between spatial familiarity and semantic salience of urban places. The second component is more qualitative. On the one hand, it explores the uses of webmapping platforms from a set of semi-structured interviews. On the other hand, cognitive strategies of locals (inhabitants of the Province of Quebec) and strangers are obtained and compared through experiments based on the think-aloud method. In the end, this research indicates that places with a high semantic salience score are likely to grab locals’ attention. These people also tend to pick up personal and popular landmarks along the itinerary provided by the webmapping platform. Nevertheless, this approach restricts the acquisition of new spatial knowledge and affects users’ cartographic literacy at the same time. Those drawbacks lead me to argue that the improvement of navigational and wayfinding aid does not necessarily lie in the customization of the computed route and its directions. In my opinion, encouraging users to actively participate in the wayfinding process is a path that researchers in spatial cognitive engineering should explore.
76

Enjeux de la réduction d'échelle dans l'estimation par télédétection des déterminants climatiques

Hangnon, Hugues Yenoukoume 09 November 2022 (has links)
Ce travail s'inscrit dans le cadre de recherche sur les maladies vectorielles de Lyme et Virus du Nil au sein de l'Agence de Santé Publique du Canada (ASPC) ayant pour finalité d'évaluer et de cartographier les risques sanitaires associés à ces maladies infectieuses liées au climat aux échelles municipales, provinciales et fédérale. Dans ce contexte, cette recherche vise à démontrer la faisabilité, la pertinence et les enjeux de recourir aux méthodes de réduction d'échelle pour obtenir à une haute résolution spatio-temporelle (100/30 m et 1 jour) avec au plus des marges d'erreur de 2 unités, des déterminants climatiques et microclimatiques (DCMC) en milieu hétérogène du Canada. Un cadre méthodologique d'application des méthodes de réduction d'échelle, Random Forest Regression (RFR), Thermal sharpening (TsHARP), Pixel block intensity modulation (PBIM), a été proposé pour estimer la température de surface (LST) de MODIS 1000 m à 100/30 m. Des expérimentations basées sur cette approche ont été effectuées sur trois sites au Québec à différentes époques. Les résultats, spatialement représentatifs, ont été validés avec les températures de l'air et celles prises par de Landsat 08 avec des marges d'erreur autour de 2°C. L'analyse des résultats démontre la capacité effective des méthodes de réduction d'échelle à discriminer la LST dans l'espace. Toutefois, dans le contexte du projet de l'ASPC, ces résultats sont non concluants à 100/30 m en l'absence d'une plus-value significative au plan spatial de LST. Cette analyse a conduit à discuter des enjeux temporels, spatiaux, méthodologiques et de gestion de gros volumes de données en lien avec la réduction d'échelle dans le contexte du projet. / This research is part of the Public Health Agency of Canada's (PHAC) research on Lyme and West Nile Virus vector-borne diseases, which aims to assess and map the health risks associated with these climate-related infectious diseases at the municipal, provincial and federal levels. In this context, this research aims to demonstrate the feasibility, relevance and challenges of using downscaling methods to obtain high spatial and temporal resolution (100/30 m and 1 day), with margins of error of no more than 2 units, of climatic and microclimatic determinants (CMDs) in a heterogeneous Canadian environment. A methodological framework for the application of downscaling methods, Random Forest Regression (RFR), Thermal sharpening (TsHARP), Pixel block intensity modulation (PBIM), has been proposed to estimate the surface temperature (LST) from MODIS 1000 m to 100/30 m. Experiments with our approach were carried out at three sites in Quebec at different times. The spatially representative results were validated with air and Landsat 08 temperatures with error margins around 2°C. The analysis of our results demonstrates the effective capacity of downscaling methods to discriminate LST in space. However, in the context of the ASPC project, these results are inconclusive at 100/30 m in the absence of a significant, expected increase in the spatial accuracy of LST. This analysis led to a discussion of the temporal, spatial, methodological and large data volume management issues related to downscaling in the context of the project.
77

Modèles prédictifs pour la post-adoption des systèmes d'information

Naceur, Rhouma 28 July 2023 (has links)
Thèse ou mémoire avec insertion d'articles / Les avancements fulgurants dans les technologies de l'information et de la communication (TIC) ont changé nos modes de vie à plusieurs égards. Ces technologies, perçues hier comme un luxe, sont devenues un choix indispensable dans les organisations contemporaines. Cette tendance s'est accentuée avec l'intensification de la mondialisation et l'ouverture des frontières économiques. En outre, la concurrence passera principalement par la mobilisation de ces technologies de pointe. Cette pression oblige les organisations à examiner les avantages de ces technologies. En effet, certains systèmes d'information nécessitent une mobilisation importante en matière de ressources, et donc, une prise de risque importante. Selon les statistiques d'une firme de sondage indépendante (Sage Group PLC, 2021), le coût moyen des implantations de certains systèmes d'information est évalué à 6.1 millions de dollars au cours des cinq dernières années . Cependant, la durée moyenne de ces projets ne dépasse pas les 15.7 mois. Ces statistiques nous poussent à mieux approfondir nos connaissances sur le sujet. Dans le cadre de notre thèse, nous nous focalisons sur l'impact de la post-adoption des systèmes d'information sur les processus influençant la performance financière et non financière de l'organisation dans un contexte canadien. De ce fait, la mesure de performance est considérée comme un indicateur pour évaluer le succès ou l'échec de l'adoption du système d'information. Cette mesure est à la fois complexe et illusoire. Ainsi, en nous basant sur les résultats empiriques de notre étude, nous étendons la portée de la thèse pour avoir une meilleure compréhension du succès et de l'échec vis-à-vis de l'adoption des systèmes d'information. Bien que les termes "échec" et "succès" sont bien connus et largement utilisés dans le champ de la technologie de l'information, mais ils demeurent délicats et sont difficiles à définir (Stefanovic et al., 2011; Petter et al., 2008; Jiang et al., 2002; Garrity & Sanders, 1998). Par ailleurs, nous visons définir une meilleure conceptualisation du succès et de l'échec de l'adoption du système d'information en se référant à la performance financière et non financière de la firme tout en prenant en considération le résultat des autres processus. Afin d'atteindre nos objectifs, nous avons commencé par explorer la littérature pour avoir une meilleure compréhension du domaine de l'adoption. Nous avons procédé par une étude exploratoire. Un questionnaire en ligne a été créé avec l'aide d'un expert et envoyé à des employés travaillant pour des organisations au Canada. Les données collectées ont été analysées avec les outils SPSS et SmartPLS afin de valider nos hypothèses. La régression des moindres carrés partiels (Partial least squares regression PLS) est utilisée pour analyser les différentes relations entre nos variables tandis que, pour comprendre la conceptualisation du succès et de l'échec, nous avons utilisé l'analyse par segmentation en deux étapes (the two-step cluster analysis technique). Les résultats obtenus nous ont permis d'avoir une compréhension du domaine de la gestion des organisations à travers le diagnostic de l'adoption des systèmes d'information et une compréhension des comportements et perceptions humains qui permettra une meilleure prédiction du succès ou de l'échec et donc une gestion organisationnelle optimale. Selon la littérature grise, malgré le fait que le taux d'échec était en déclin durant les dernières années, le taux de succès demeure presque stable. Nos résultats empiriques confirment la dépendance entre le succès et l'échec, ce qui permettra d'avoir une meilleure visibilité sur le taux réel du succès et de l'échec de l'adoption des systèmes d'information. Notre étude étend le modèle de TTF (Technology Fit Model), largement utilisé en TI (technologie de l'information). Elle intègre d'autres facteurs qui peuvent expliquer la performance de l'entreprise. Le nouveau modèle conceptuel permettra aux praticiens de mieux comprendre l'impact de l'utilisation sur la performance de l'entreprise, la performance individuelle et celle des processus d'affaires. Les résultats de notre étude incitent les praticiens à mettre en place des mesures de performance intégrant la qualité du système, la facilité de son utilisation, la performance individuelle et la performance des processus d'affaires. Ces facteurs ont un impact direct et indirect sur la performance financière et non financière de l'entreprise. Finalement, des recherches empiriques s'avèrent nécessaires pour évaluer l'impact de ces facteurs à travers différentes frontières contextuelles et culturelles. Les études futures doivent considérer d'autres facteurs comme la sécurité, qui de nos jours, devient une priorité afin de mieux comprendre l'effet de l'utilisation sur la satisfaction des utilisateurs et la performance de l'entreprise.
78

Évaluation et la représentation spatiotemporelle de l'accessibilité des réseaux piétonniers pour le déplacement des personnes à mobilité réduite

Gharebaghi, Amin 08 February 2019 (has links)
La mobilité des personnes à mobilité réduite (PMR) joue un rôle important dans leur inclusion sociale. Les PMR ont besoin de se déplacer de manière autonome pour effectuer leurs routines quotidiennes comme aller à l'école, au travail, au centre de remise en forme ou faire du magasinage. Cependant, celles-ci ne sont pas entièrement exécutées en raison de la conception non-adaptée des villes pour ces personnes. En effet, la mobilité est une habitude de vie humaine qui est le résultat d'interactions entre les facteurs humains (par exemple, les capacités) et les facteurs environnementaux. Au cours des dernières années, la mise au point de technologies d’aide technique s'est développée progressivement pour permettre aux PMR d’améliorer leur qualité de vie. En particulier, ces technologies offrent une variété de caractéristiques qui permettent à ces personnes de surmonter divers obstacles qui réduisent leur mobilité et contribuent à leur exclusion sociale. Cependant, malgré la disponibilité des technologies d’aide à la navigation et à la mobilité, leur potentiel est mal exploité pour les PMR. En effet, ces technologies ne considèrent pas les interactions « humain-environnement » adéquatement pour ces utilisateurs. L'objectif général de cette thèse est d'utiliser les potentiels des méthodes et des technologies de science de l'information géographique (SIG) afin d’aider à surmonter les problèmes de mobilité des PMR en créant un cadre d'évaluation de l'accessibilité et en développant une approche personnalisée de routage qui prend en compte les profils de ces personnes. Pour atteindre ce but, quatre objectifs spécifiques sont considérés: 1) développer une ontologie de mobilité pour les PMR qui considère les facteurs personnels et environnementaux, 2) proposer une méthode de l’évaluation de l'accessibilité du réseau piétonnier pour la mobilité des PMR en considérant spécifiquement les interactions entre les facteurs humains (la confiance) et les facteurs environnementaux, 3) étudier le rôle des facteurs sociaux dans l'accessibilité des zones urbaines et, finalement, 4) affiner les algorithmes existants pour calculer les itinéraires accessibles personnalisés pour les PMR en considérant leurs profils. En effet, tout d'abord pour développer une ontologie pour la mobilité des PMR, la dimension sociale de l'environnement ainsi que la dimension physique sont intégrées et une nouvelle approche basée sur une perspective « nature-développement » est présentée. Ensuite, une approche fondée sur la confiance des PMR est développée pour l'évaluation de l'accessibilité du réseau piétonnier, compte tenu de l'interaction entre les facteurs personnels et les facteurs environnementaux. De plus, dans une perspective de considération des facteurs sociaux, le rôle des actions politiques sur l'accessibilité du réseau piétonnier est étudié et l'influence de trois politiques potentielles est analysée. Enfin, une nouvelle approche pour calculer des itinéraires personnalisés pour les PMR en tenant compte de leurs perceptions, de leurs préférences et de leurs confidences est proposée. Les approches proposées sont développées et évaluées dans le quartier Saint-Roch à Québec, et ce, en utilisant une application d'assistance mobile et multimodale développée dans le cadre du projet MobiliSIG. / Mobility of people with motor disabilities (PWMD) plays a significant role in their social inclusion. PWMD need to move around autonomously to perform their daily routines such as going to school, work, shopping, and going to fitness centers. However, mostly these needs are not accomplished because of either limitations concerning their capabilities or inadequate city design. Indeed, mobility is a human life habit, which is the result of interactions between people and their surrounded environments. In recent years, assistive technologies have been increasingly developed to enable PWMD to live independently and participate fully in all aspects of life. In particular, these technologies provide a variety of features that allow these individuals to overcome diverse obstacles that reduce their mobility and contribute to their social exclusion. However, despite increasing availability of assistive technologies for navigation and mobility, their potential is poorly exploited for PWMD. Indeed, these technologies do not fully consider the human-environment interactions. The overall goal of this dissertation is to benefit from the potentials of methods and technologies of the Geographic Information Sciences (GIS) in order to overcome the mobility issues of PWMD by creating an accessibility-assessing framework and ultimately by developing a personalized routing approach, which better considers the humanenvironment interaction. To achieve this goal, four specific objectives were followed: 1) develop a mobility ontology for PWMD that considers personal factors as well as environmental factors, 2) propose a method to evaluate the accessibility of the pedestrian network for the mobility of PWMD considering the interactions between human factors (confidence) and the environmental factors, 3) study of the role of social factors in the accessibility of urban areas, and finally, 4) refine the existing algorithms to calculate accessible routes for PWMD considering their profile. First, to develop an adapted ontology for mobility of the PWMD, the social dimension of the environment with the physical dimension were integrated and a new approach based on a “Nature-Development” perspective was presented. This perspective led to the development of useful ontologies, especially for defining the relationships between the social and physical parts of the environment. Next, a confidence-based approach was developed for evaluation of the accessibility of pedestrian network considering the interaction between personal factors and environmental factors for the mobility of PWMD. In addition, the role of policy actions on the accessibility of the pedestrian network was investigated and the influence of three potential policies was analyzed. Finally, a novel approach to compute personalized routes for PWMD considering their perception, preferences, and confidences was proposed. The approaches proposed were implemented in the Saint-Roch area of Quebec City and visualized within the multimodal mobile assistive technology (MobiliSIG) application
79

Évaluation de la qualité des données géospatiales : approche top-down et gestion de la métaqualité

Lévesque, Johann 13 April 2018 (has links)
Depuis l'avènement du numérique, la demande de données par les utilisateurs des systèmes d'information géographique (SIG) ne fait qu'augmenter. Les organismes utilisateurs se retrouvent souvent devant plusieurs sources de données géographiques potentielles et ils doivent alors évaluer la qualité de chaque source en fonction de leurs besoins. Pour ce faire, ces organismes pourraient faire appel à un expert en qualité qui pourrait les aider à déterminer s'il y a adéquation (i.e. qualité externe) entre les données et leurs besoins. Pour utiliser le système MUM, l'expert en qualité doit recueillir de l'information sur les jeux de données. Dans le domaine de la géomatique, cette information se retrouve généralement sous la forme de métadonnées émises par les producteurs de données. Le système MUM, développé par Devillers et al. [2004b], a été conçu initialement en fonction d'une approche bottom-up, où on utilise des métadonnées fines pour extraire des indicateurs globaux de qualité, à l'aide d'opérateurs d'agrégation typiques des outils SOLAP. Il s'agit là d'une solution qui permet de faciliter l'analyse de la qualité, particulièrement dans des contextes de données hétérogènes. Par contre, comme le mentionnent les concepteurs de MUM, le manque de métadonnées fines est un obstacle à l'utilisation du système MUM dans sa forme actuelle. L'objectif de la présente recherche a donc été d'élaborer une méthode de génération des métadonnées dite top-down. Cette méthode permet de générer, lorsque possible, les métadonnées fines (au niveau des occurrences, voire des primitives géométriques) d'un jeu de données à l'aide des métadonnées grossières et des opinions d'experts touchant un ensemble d'occurrences. Cette méthodologie amène l'expert en qualité à utiliser dans certains cas des sources de données différentes. Ceci soulève alors un problème concernant l'hétérogénéité de la fiabilité des sources utilisées pour évaluer la qualité externe. Le concept de métaqualité a été introduit pour répondre à ce problème d'hétérogénéité. Il permet en effet de quantifier le risque lié à l'imperfection de l'information contenue dans les indicateurs de qualité. L'enrichissement du système MUM a donc été réalisé grâce à la conception du modèle E-QIMM (Extented Quality Information Management Model) qui est une extension du modèle QIMM de Devillers [2004] et qui permet d'intégrer la dimension ± Métaqualité ¿ dans le processus d'évaluation de la qualité.
80

Towards high-accuracy augmented reality GIS for architecture and geo-engineering

Gervais, Renaud 18 April 2018 (has links)
L’architecture et la géo-ingénierie sont des domaines où les professionnels doivent prendre des décisions critiques. Ceux-ci requièrent des outils de haute précision pour les assister dans leurs tâches quotidiennes. La Réalité Augmentée (RA) présente un excellent potentiel pour ces professionnels en leur permettant de faciliter l’association des plans 2D/3D représentatifs des ouvrages sur lesquels ils doivent intervenir, avec leur perception de ces ouvrages dans la réalité. Les outils de visualisation s’appuyant sur la RA permettent d’effectuer ce recalage entre modélisation spatiale et réalité dans le champ de vue de l’usager. Cependant, ces systèmes de RA nécessitent des solutions de positionnement en temps réel de très haute précision. Ce n’est pas chose facile, spécialement dans les environnements urbains ou sur les sites de construction. Ce projet propose donc d’investiguer les principaux défis que présente un système de RA haute précision basé sur les panoramas omnidirectionels. / Architecture and geo-engineering are application domains where professionals need to take critical decisions. These professionals require high-precision tools to assist them in their daily decision taking process. Augmented Reality (AR) shows great potential to allow easier association between the abstract 2D drawings and 3D models representing infrastructure under reviewing and the actual perception of these objects in the reality. The different visualization tools based on AR allow to overlay the virtual models and the reality in the field of view of the user. However, the architecture and geo-engineering context requires high-accuracy and real-time positioning from these AR systems. This is not a trivial task, especially in urban environments or on construction sites where the surroundings may be crowded and highly dynamic. This project investigates the accuracy requirements of mobile AR GIS as well as the main challenges to address when tackling high-accuracy AR based on omnidirectional panoramas.

Page generated in 0.3145 seconds