• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 172
  • 48
  • 18
  • Tagged with
  • 235
  • 235
  • 87
  • 62
  • 53
  • 46
  • 45
  • 43
  • 39
  • 38
  • 37
  • 35
  • 32
  • 32
  • 26
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Articulation entre pratiques managériales et systèmes d'information : construction d'un idéal type et modélisations

Houy, Thomas 11 June 2008 (has links) (PDF)
L'objectif de cette thèse est de proposer des résultats de recherche nouveaux sur la manière dont certaines pratiques managériales s'articulent avec des formes de Systèmes d'Information (formels et informels) spécifiques. Dans cette perspective, nous avons choisi d'observer les pratiques managériales et les usages SI d'entreprises ayant décidé de s'engager dans la voie du lean management. Grâce à ces observations et au recours à la modélisation, nous identifions d'abord les déterminants du choix de l'installation d'un Outil de Reporting Structuré (ORS) dans les entreprises qui pratiquent l'Amélioration Continue de leurs processus de production. Nous évaluons ensuite, sur un plan théorique, la durée optimale des réunions d'équipe dont le but est de faire remonter les suggestions d'amélioration des processus de production de l'entreprise. Enfin, nous caractérisons les situations où les Outils de Prévision de la Demande (OPD) se substituent aux pratiques de réduction de stocks.
22

Stratégie de déploiement d'outils de pilotage de chaines logistiques : Apport de la classification

Laure, Pichot 15 December 2006 (has links) (PDF)
Ce travail porte sur les apports de la classification dans le cadre du déploiement des chaînes logistiques dans un groupe industriel.<br />Le modèle SCOR-model est une base de référence de processus standard qui a été utilisée pour le déploiement du Supply Chain Management. Il a notamment servi de base pour la description des processus et pour la détermination des variables quantitatives et qualitatives utilisables dans la classification d'objets autour du thème des chaînes logistiques.<br />Sur le cas de Rhodia (multinationale produisant plusieurs dizaines de milliers de produits avec plus d'une centaine de sites sur quatre continents), nous avons appliqué différentes méthodes de classification afin d'accélérer et de faciliter le déploiement du Supply Chain Management.<br />Parmi ces outils, nous avons utilisé les arbres de décision pour établir des classes de produits relativement à leur méthode de gestion et la méthode des nuées dynamiques pour définir des classes d'entreprises relativement à leurs caractéristiques propres à la gestion de la chaîne logistique.<br />Ces classifications ont servi de base au déploiement des logiques de pilotage et de SAP sur l'ensemble des entreprises du groupe.<br />A posteriori, nous pouvons constater le gain de temps qu'elles ont occasionné en permettant d'offrir un éventail de solutions prédéterminées, adaptables à chaque entreprise du groupe.<br />Le fait d'avoir réussi un développement du concept de gestion des chaînes logistiques et l'implantation de SAP sur un groupe de cette taille en un temps si court est en soit une validation de l'approche.
23

Défis conceptuels et méthodologiques posés par la définition opérationnelle du milieu : l'exemple des milieux résidentiels favorables à la marche

Riva, Mylène January 2008 (has links)
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
24

Optimisation de la gestion d’un réseau hydrographique en périodes de crues / Optimal operation of a multi-reservoir during flood periods

Argoubi, Majdi El 27 March 2009 (has links)
Le problème d’optimisation de la gestion d’un réseau hydrographique en période de crues consiste à résoudre un problème tactique de coordination des lâchers des réservoirs, afin de minimiser les dégâts occasionnés, en prenant en considération les exigences et spécificités spatiales du système. Comme la Programmation Dynamique Neuronal (PDN) permet d’aborder les problèmes stochastiques à évolutions temporelle et séquentielle, mais ne traite pas l’aspect spatial, alors que les Systèmes d’Information Géographique (SIG) permettent une représentation spatiale, mais avec une gestion limitée de l’aspect temporel, un couplage serré entre ces deux techniques s’avère une alternative dans la résolution de ce problème. Nous proposons alors une nouvelle approche pour la détermination des scénarios de lâchers optimaux d’un réseau hydrographique, dans lequel, les lâchers d’un réservoir sont déterminés par Système d’aide à la décision associant ces deux composantes. Une mise en œuvre sur le réseau hydrographique du Nord de la Tunisie nous a permis de valider cette approche en proposant des scénarios de lâchers satisfaisants / A decision support system (DSS) has been developed for integrated, real-time flood control in a multi-reservoir system. The DSS integrates a geographic information system (GIS) with an optimization module, and a graphical dialog interface allowing effective use by system operators. A neuro-dynamic programming technique (NDP), which overcomes numerous limitations of dynamic programming (DP), is introduced for determining the optimal release policy under flood conditions. Results obtained in a real-world case study are finally presented
25

Développement d'une nouvelle méthode de calibrage des Systèmes LiDAR Mobiles (SLM) en laboratoire

Landry, Michaël 24 April 2018 (has links)
Le scanner LiDAR est une technologie de plus en plus populaire auprès des ingénieurs, arpenteurs-géomètres, architectes et autres professionnels qui ont recours à la modélisation 3D dans le cadre de leur travail. L'intégration de ce capteur à un système de navigation (IMU + GNSS) permet de former un Système LiDAR Mobile (SLM). Les SLM ont été initialement développés pour des véhicules aéroportés, mais ont été plus récemment adaptés aux véhicules terrestres. Toutes les observations du SLM sont combinées pour former un nuage de points par géoréférencement direct. De manière à limiter la propagation des erreurs systématiques dues à l'assemblage de ces capteurs, un calibrage du système est nécessaire. Le calibrage d'un SLM implique la détermination des bras de levier et des angles de visée qui correspondent sommairement à la distance et à l'orientation entre le LiDAR et l'IMU. Le fabricant fournit habituellement des valeurs pour ces éléments, mais il est nécessaire de peaufiner ces valeurs qui sont propres à chaque système. Étant donné qu'il est impossible de déterminer précisément les angles de visée avec des mesures manuelles, les observations sur le terrain sont utilisées afin de les estimer (calibrage in situ). Un problème avec le calibrage in situ est que les observations GNSS introduisent des erreurs de plusieurs centimètres dans la solution, ce qui nuit au calibrage. Pour éliminer le recours aux observations GNSS, des méthodes alternatives de calibrage s'imposent. Le but de ce travail de recherche est d'instaurer une procédure de cueillette et de traitement des données acquises par un SLM en laboratoire de façon à développer une méthode de calibrage libre d'erreurs de positionnement GNSS. Cette méthode de calibrage doit permettre d'estimer les angles de visée et les bras de levier d'un SLM à partir des instruments et des infrastructures présentes au laboratoire de métrologie de l’Université Laval. / The LiDAR scanner is an increasingly popular technology for engineers, land surveyors, architects and other professionals who use 3D modeling as part of their work. The integration of this sensor with a navigation system (IMU + GNSS) makes it possible to form a Mobile LiDAR System (MLS). MLSs were originally developed for airborne vehicles, but were more recently adapted to land vehicles. All MLS observations are combined to form a point cloud by direct georeferencing. In order to limit the propagation of systematic errors due to the assembly of these sensors, it is necessary to properly calibrate the system. The calibration of an MLS involves the determination of the lever arms and boresight angles that correspond to the distance and orientation between the LiDAR and the IMU. The manufacturer usually provides values for these elements, but it is necessary to fine-tune these values that are unique to each system. Since it is impossible to accurately determine boresight angles with manual measurements, field observations are used to estimate them (in situ calibration). A problem with in situ calibration is that GNSS observations introduce errors of several centimeters into the solution, which is harmful for a proper calibration. In order to eliminate the need for GNSS observations, alternative methods of calibration are required. The aim of this research is to set up a procedure for the collection and processing of data acquired by an MLS in a laboratory in order to develop a calibration method free of GNSS positioning errors. This calibration method should allow estimation of the boresight angles and the lever arms of an MLS with the instruments and infrastructures inside the metrology laboratory of Laval University.
26

La géomatique au service de l'archéologie de terrain : la solution Arch-Tablet

Rondeau, Mathieu 13 April 2018 (has links)
L'étude du processus actuel d'acquisition, de gestion et d'analyse des données, en particulier de la donnée géospatiale, sur un chantier de fouille archéologique, met en évidence des lacunes importantes : imprécision, lenteur, redondance, etc. Le SIG apparaît pour beaucoup comme une solution utile et pertinente. Pourtant, si les SIG soulèvent l'enthousiasme de la communauté archéo-informatique, les archéologues de terrain se montrent quant à eux beaucoup plus prudents, voir réticents, à l'idée d'introduire ces technologies sur les chantiers. Ce constat est à la base du questionnement général de cette recherche. Il relance la discussion sur la manière d'introduire efficacement les savoir-faire géomatiques au sein d'une organisation, ici plus spécifiquement au sein d'un chantier de fouille archéologique. L'objectif de cette recherche consiste à montrer que la conception et le développement participatif d'une solution logicielle géomatique nomade peut soutenir efficacement la géomatisation ± acceptée ¿ du processus d'acquisition des données lors de la fouille. Un prototype logiciel, baptisé Arch-Tablet, a ainsi été conçu et développé suivant une démarche participative centrée sur l'utilisateur. Il a ensuite été testé auprès des archéologues de Parcs Canada, en charge de la fouille du site de l'ancien château de St-Louis, situé sous les planches de la terrasse Dufferin, à Québec. Ces derniers ont accepté de s'investir comme partenaires du projet Archéogéomatique en général et de cette recherche en particulier, en nous accordant un droit de visite sur leur chantier et en nous consacrant, à la demande, un peu de leur temps. Des tests ont été menés sur le terrain dans un premier temps, puis en laboratoire dans un second temps. Les résultats obtenus démontrent, d'un point de vue technologique, que la solution répond efficacement aux différentes faiblesses qui avaient été préalablement identifiées au niveau du processus actuel d'acquisition des données. Par ailleurs, d'un point de vue méthodologique, les commentaires recueillis auprès des archéologues démontrent clairement que la solution a été bien acceptée sur le plan humain. L'alternative proposée par cette recherche s'avère donc prometteuse.
27

Development of a 3D Kinetic Data Structure adapted for a 3D Spatial Dynamic Field Simulation

Hashemi Beni, Leila 16 April 2018 (has links)
Les systèmes d'information géographique (SIG) sont employés couramment pour la représentation, la gestion et l'analyse des données spatiales dans un grand nombre de disciplines, notamment les sciences de la terre, l'agriculture, la sylviculture, la météorologie, l'océanographie et plusieurs autres. Plus particulièrement, les géoscientifiques utilisent de plus en plus ces outils pour l'intégration et la gestion de données dans différents types d'applications environnementales, allant de la gestion des ressources en eau à l'étude du réchauffement climatique. Au delà de ces possibilités, les géoscientifiques doivent modéliser et simuler des champs spatiaux dynamiques et 3D et intégrer aisément les résultats de simulation à d'autres informations spatiales associées afin d'avoir une meilleure compréhension de l'environnement. Cependant, les SIG demeurent extrêmement limités pour la modélisation et la simulation des champs spatiaux qui sont habituellement tridimensionnels et dynamiques. Ces limitations sont principalement reliées aux structures de données spatiales actuelles des SIG qui sont bidimensionnelles et statiques et ne sont pas conçues pour aborder le 3D et les aspects dynamiques des champs spatiaux 3D. Par conséquent, l'objectif principal de ce travail de recherche est d'améliorer la capacité actuelle des SIG concernant la modélisation et la simulation des champs spatiaux dynamiques et 3D par le développement d'une structure de données spatiale 3D cinétique. Selon notre revue de littérature, la tetraèdrisation Delaunay dynamique 3D (DT) et sa structure duale, le diagramme Voronoi 3D (VD), ont un potentiel intéressant pour manipuler la nature tridimensionnelle et dynamique de ce genre de phénomène. Cependant, en raison de l'échantillonnage particulier des données utilisées dans les applications en géosciences, la tetraèdrisation Delaunay de telles données est souvent inadéquate pour l'intégration et la simulation numériques de champs dynamiques. Par exemple, dans une simulation hydrogéologique, les données sont réparties irrégulièrement i.e. verticalement denses et horizontalement clairsemées, ce qui peut résulter en une tessellation inadéquate dont les éléments seront soit très grands, soit très petits, soit très minces. La taille et la forme des éléments formant la tessellation ont un impact important sur l'exactitude des résultats de la simulation, ainsi que sur les coûts de calcul qui y sont reliés. Par conséquent, la première étape de notre travail de recherche est consacrée au développement d’une méthode de raffinement adaptative basée sur la structure de données Delaunay dynamique 3D et à la construction d’une tessellation 3D adaptative pour la représentation et la simulation de champs dynamiques. Cette tessellation s’ajuste à la complexité des champs, en considérant les discontinuités et les critères de forme et de taille. Afin de traiter le comportement dynamique des champs 3D dynamiques dans SIG, nous étendons dans la deuxième étape de cette recherche le VD 3D dynamique au VD 3D cinématique pour pouvoir mettre à jour en temps réel la tessellation 3D lors des procédés de simulation dynamique. Puis, nous montrons comment une telle structure de données spatiale peut soutenir les éléments en mouvement à l’intérieur de la tessellation ainsi que leurs interactions. La structure de données cinétique proposée dans cette recherche permet de gérer de manière élégante les changements de connectivité entre les éléments en mouvement dans la tessellation. En outre, les problèmes résultant de l'utilisation d’intervalles de temps fixes, tels que les dépassements et les collisions non détectées, sont abordés en fournissant des mécanismes très flexibles permettant de détecter et contrôler différents changements (événements) dans la tessellation Delaunay 3D. Enfin, nous étudions le potentiel de la structure de données spatiale cinétique 3D pour la simulation de champs dynamiques dans l'espace tridimensionnel. À cette fin, nous décrivons en détail les différentes étapes menant à l'adaptation de cette structure de données, de sa discrétisation pour des champs 3D continus à son intégration numérique basée sur une méthode événementielle. Nous démontrons également comment la tessellation se déplace et comment la topologie, la connectivité, et les paramètres physiques des cellules de la tessellation sont localement mis à jour suite à un événement topologique survenant dans la tessellation. Trois études de cas sont présentées dans la thèse pour la validation de la structure de données spatiale proposée, et de son potentiel pour la simulation de champs spatiaux 3D et dynamiques. Selon nos observations, pendant le procédé de simulation, la structure de données est préservée et l'information 3D spatiale est gérée adéquatement. En outre, les résultats calculés à partir des expérimentations sont très satisfaisants et sont comparables aux résultats obtenus à partir d'autres méthodes existantes, pour la simulation des mêmes champs dynamiques. En conclusion, certaines des limites de l'approche proposée liées au développement de la structure de données 3D cinétique et à son adaptation pour la représentation et la simulation d'un champ spatial 3D et dynamique sont discutées, et quelques solutions sont suggérées pour l'amélioration de l'approche proposée. / Geographic information systems (GIS) are widely used for representation, management and analysis of spatial data in many disciplines including geosciences, agriculture, forestry, metrology and oceanography etc. In particular, geoscientists have increasingly used these tools for data integration and management purposes in many environmental applications ranging from water resources management to global warming study. Beyond these capabilities, geoscientists need to model and simulate 3D dynamic spatial fields and readily integrate those results with other relevant spatial information in order to have a better understating of the environment. However, GIS are very limited for modeling and simulation of spatial fields which are mostly three dimensional and dynamic. These limitations are mainly related to the existing GIS spatial data structures which are 2D and static and are not designed to address the 3D and dynamic aspects of continuous fields. Hence, the main objective of this research work is to improve the current GIS capabilities for modeling and simulation of 3D spatial dynamic fields by development of a 3D kinetic data structure. Based on our literature review, 3D dynamic Delaunay tetrahedralization (DT) and its dual, 3D Voronoi diagram (VD), have many interesting potentials for handling the 3D and dynamic nature of those kind of phenomena. However, because of the special configurations of datasets in geosciences applications, the DT of such data is often inadequate for numerical integration and simulation of dynamic field. For example, in a hydrogeological simulation, the data form highly irregular set of points aligned in vertical direction and very sparse horizontally which may result in very large, small or thin tessellation elements. The size and shape of tessellation elements have an important impact on the accuracy of the results of the simulation of a field as well as the related computational costs. Therefore, in the first step of the research work, we develop an adaptive refinement method based on 3D dynamic Delaunay data structure, and construct a 3D adaptive tessellation for the representation and simulation of a dynamic field. This tessellation is conformed to represent the complexity of fields, considering the discontinuities and the shape and size criteria. In order to deal with the dynamic behavior of 3D spatial fields in a moving framework within GIS, in the second step, we extend 3D dynamic VD to 3D kinetic VD in the sense of being capable of keeping update the 3D spatial tessellation during a dynamic simulation process. Then, we show how such a spatial data structure can support moving elements within the tessellation and their interactions. The proposed kinetic data structure provides an elegant way for the management of the connectivity changes between moving elements within the tessellation. In addition, the problems resulting from using a fixed time step, such as overshoots and undetected collisions, are addressed by providing very flexible mechanisms to detect and manage different changes (events) in the spatial tessellation by 3D DT. Finally, we study the potentials of the kinetic 3D spatial data structure for the simulation of a dynamic field in 3D space. For this purpose, we describe in detail different steps for the adaption of this data structure from its discretization for a 3D continuous field to its numerical integration based on an event driven method, and show how the tessellation moves and the topology, connectivity, and physical parameters of the tessellation cells are locally updated following any event in the tessellation. For the validation of the proposed spatial data structure itself and its potentials for the simulation of a dynamic field, three case studies are presented in the thesis. According to our observations during the simulation process, the data structure is maintained and the 3D spatial information is managed adequately. Furthermore, the results obtained from the experimentations are very satisfactory and are comparable with results obtained from other existing methods for the simulation of the same dynamic field. Finally, some of the limitations of the proposed approach related to the development of the 3D kinetic data structure itself and its adaptation for the representation and simulation of a 3D dynamic spatial field are discussed and some solutions are suggested for the improvement of the proposed approach.
28

L'audit de contenu en architecture d'information : examen de la méthode à travers les écrits d'experts

Sperano, Isabelle 24 April 2018 (has links)
Depuis une vingtaine d’années, le Web s’est imposé comme média privilégié par une variété d’organisations (instances gouvernementales, entreprises, organismes, etc.) pour transmettre une quantité substantielle d’informations à leurs destinataires. La mise en place adéquate de ces imposantes structures informationnelles dépend, entre autres, de spécialistes de l’information et de la communication de divers champs d’expertise, dont l’architecture d’information (AI). Dans la mesure où l’accès à une information particulière constitue l’objectif principal d’une majorité d’activités de recherche sur le Web, ces spécialistes portent normalement une grande attention au contenu présenté. Pour ce faire, différentes méthodes visant à mieux appréhender le contenu ont vu le jour depuis quelques années. L’audit de contenu est l’une d’elles. Considérée par plusieurs spécialistes comme incontournable, cette méthode experte vise à identifier, à dénombrer, à décrire et à évaluer le contenu d’un site Web ou d’un écosystème informationnel plus vaste en le confrontant à une liste de critères d’analyse (ex. : genre, style, pertinence). La communauté d’AI se heurte actuellement à un déficit de recherche à propos de l’audit de contenu. En effet, rares, voire inexistants, sont les travaux de recherche qui en rendent compte de manière exhaustive. Fort d’une validation plutôt informelle effectuée en grande partie par des praticiens, l’audit de contenu se voit en revanche abondamment décrit et commenté dans une foule d’écrits professionnels. C’est ce qui nous a menée à examiner un corpus d’écrits d’experts abordant l’audit de contenu (ouvrages, publications Web, articles). Cette recherche procède à un examen approfondi de l’audit de contenu comme méthode d’évaluation de l’architecture d’information d’un écosystème informationnel numérique. Plus précisément, cette recherche dresse un portait des publications abordant l’audit de contenu et de leurs auteurs, définit l’audit de contenu, cerne ses principales caractéristiques, fait l’examen des activités et des protocoles d’audit de contenu et, enfin, analyse les critères d’audit de contenu. Les résultats mettent en lumière une importante disparité entre les propos des auteurs des publications du corpus. Que ce soit concernant la dénomination de la méthode, sa définition, ses caractéristiques, ses activités ou ses critères, le discours présenté dans chaque publication du corpus exprime de manière fragmentaire les savoirs disciplinaires à propos de l’audit de contenu. Nous observons aussi que les savoirs relatifs à la méthode ne cernent que partiellement la réalité informationnelle des organisations. En filigrane des écrits relatifs à l’audit de contenu, on constate que le discours actuel à propos de cette méthode est le reflet d’une approche plutôt traditionnelle de l’architecture d’information. Mots-clés : audit de contenu, inventaire du contenu, architecture d’information, évaluation experte. / For twenty years, the Web has emerged as the favoured s of communication by a variety of organisations (governments, businesses, organisations, etc.) to deliver a substantial amount of information to their recipients. The proper implementation of these imposing informational structures depends, inter alia, on information and communication specialists in various fields of expertise, including information architecture (IA). Insofar as access to particular information is the main purpose of a majority of research activities on the Web, these specialists should pay special attention to content. To do so, different methods intended to provide a better understanding of content have emerged in recent years. Content audit is one of them. Considered by many specialists as indispensable, this expert method aims to identify, count, describe and evaluate the content of a website by confronting it to a list of analysis criteria (e.g.: genre, style, relevance). The IA community is currently facing a deficit of research about content audit. Indeed, research about this method is rare, if non-existent. Content audit is, however, extensively described and commented in a host of professional writing. This is what led us to examine a corpus of experts’ writing addressing content audit (book, Web documents, articles). Our research aims to carry out a thorough review of content audit as an information architecture evaluation method. Specifically, this research describes publication addressing content audit and their authors, defines content audit and identifies its main features, examines and content audit activities and protocols, and finally analyses content audit criteria. Our results highlight a significant disparity between the authors’ discourse. Whatsoever concerning the description of the method, its definition, its characteristics, its activities, or these criteria, the speech presented in each publication expresses fragmentally the disciplinary knowledge about content audit. We also observe that the current content audit-related knowledge covers only partially the organisations’ informational reality. Finally, we note that the current discourse about the method displays a reflection of a rather traditional information architecture approach. Keywords : content audit, content inventory, information architecture, expert evaluation.
29

Extraction d'éléments curvilignes guidée par des mécanismes attentionnels pour des images de télédétection. Approche par fusion de données

Cotteret, Gilles 11 April 2018 (has links)
L'extraction d'éléments curvilignes d’images de télédétection, surtout proches de la limite de résolution ou lorsqu'elles sont bruitées, représente toujours un défi important pour les algorithmes informatiques, alors que pour les interprètes humains c'est une tâche immédiate. Dans ce travail une méthode novatrice est présentée pour guider l'extraction d’éléments curvilignes (routes, cours d'eau, etc) d’images de télédétection. Cette méthode a pour but de mettre à jour les systèmes d'informations géographiques (SIG) grâce à un modèle inédit (ELECA) qui comporte trois parties. Le modèle ELECA tire avantage de deux idées principales. Les données utilisées ne sont pas seulement les images de télédétection mais également les données des SIG qui ne sont pas nécessairement à jour. Le modèle s’appuie également sur des progrès récents des sciences psycho-cognitives en imitant partiellement le mouvement des yeux durant une recherche visuelle. Ainsi les trois parties du modèle ELECA sont (1) une méthode de recherche de l’information locale qui utilise un oeil virtuel pour ne se focaliser qu’aux lieux d’information probable, évitant ainsi un traitement global de l’image ; (2) une méthode simple et rapide d’extraction de l’information locale par une adaptation astucieuse d’une analyse en composantes connexes ; et (3) une méthode originale de fusion des informations locales qui s’appuie sur des travaux de reconstruction de l’espace global par raisonnement spatial qualitatif. Le modèle ELECA évite de cette manière certains pièges dans lesquels tombent souvent les méthodes courantes/classiques. En particulier, la technique proposée peut être mise en oeuvre pour des images partiellement masquées ou de basse résolution pour lesquelles seulement des interprètes humains peuvent traiter l'image présentement. La méthode a été aussi élaborée pour être rapide et efficace afin de pouvoir réaliser des mises à jour de SIG très rapides lorsque nécessaire. La dernière partie de ce travail est consacrée à l’élaboration d’une solution informatique supportant le modèle ELECA. Une architecture logicielle souple et adaptative est mise en avant, permettant l’intégration de développements ultérieurs pour le modèle. Enfin un volet algorithmique montre concrètement que les solutions du modèle ELECA sont implantables en termes informatiques. / The extraction of curvilinear elements from remote sensing images, especially when noisy or near the limit of resolution constitutes a significant challenge for data-processing algorithms. In this work a method is presented for linear feature extraction in remote sensing (RS) images. An original model (ELECA) is introduced allowing out of date geographical information system (GIS) data to be updated though the use of a visual search method that mimics human eye movements. The ELECA model is composed of three parts : (1) a visual search module using virtual gaze to avoid processing the entire image ; (2) a simple and fast method for local information extraction by a clever adaptation of connected-component labeling ; and (3) an original method for the fusion of local information to construct a global representation at the scale of the image based on qualitative spatial reasoning techniques. The ELECA model avoids several problems characteristic of current methods. In particular, the proposed technique can be applied to low resolution or partially occluded images for which currently only human interpreters can successfully process the image. The technique is also designed to be very fast and efficient when a quick GIS update is needed. The last part of this project is devoted to the design of software which supports the ELECA model. The proposed software architecture is adaptive and allows the integration of future model developments. Finally it is shown how the ELECA model could be implemented. / La extracción de elementos curvilíneos de las imágenes de teledetección, sobre todo en proximidad del límite de resolución o en presencia de ruido, representa siempre un reto importante para los algoritmos informáticos, mientras que para los intérpretes humanos es una tarea inmediata. Este trabajo presenta un método nuevo para guiar la extracción de elementos curvilíneos (carreteras, ríos, etc.) de imágenes de teledetección. El objetivo del método consiste en actualizar un sistema de información geográfica (SIG) gracias a un modelo inédito (ELECA) constituído de tres partes. El modelo ELECA desarrolla dos ideas principales. El modelo puede utilizar las imágenes de teledetección y los datos del SIG que están desactualizados. El modelo se basa asimismo en resultados recientes de la investigación en ciencias psico-cognitivas, dado que imita parcialmente el movimiento de los ojos durante una búsqueda visual. Las tres partes del modelo ELECA son: (1) un método de búsqueda de la información local que utiliza un ojo virtual par focalizarse únicamente donde se encuentra la información probable, evitando un tratamiento global de la imagen; (2) un método simple y rápido de extracción de la información local, que utiliza una adaptación astuciosa de un análisis en componentes conexos; y (3) un método original de fusión de informaciones locales que se apoya sobre trabajos de reconstrucción del espacio global por razonamiento espacial cualitativo. El modelo ELECA evita así algunas trampas en las que caen a menudo los métodos clásicos. En particular, la técnica propuesta puede ser utilizada para imágenes parcialmente enmascaradas o de baja resolución, que sólo pueden ser tratadas actualmente por intérpretes humanos. El método ha sido elaborado para ser eficiente en la actualización rápida de un SIG si es necesario. La última parte de este trabajo presenta una solución informática elaborada para soportar el modelo ELECA. Una arquitectura de programa flexible y adaptable es presentada, permitiendo la integración de desarrollos ulteriores del modelo. Finalmente, un aspecto algorítmico muestra concretamente que las soluciones del modelo ELECA. se pueden implantar en términos informáticos.
30

Proposition de nouvelles fonctionnalités WikiSIG pour supporter le travail collaboratif en Geodesign

Batita, Wided 24 April 2018 (has links)
L’émergence du Web 2.0 se matérialise par de nouvelles technologies (API, Ajax…), de nouvelles pratiques (mashup, geotagging…) et de nouveaux outils (wiki, blog…). Il repose principalement sur le principe de participation et de collaboration. Dans cette dynamique, le Web à caractère spatial et cartographique c’est-à-dire, le Web géospatial (ou GéoWeb) connait lui aussi de fortes transformations technologiques et sociales. Le GéoWeb 2.0 participatif se matérialise en particulier par des mashups entre wikis et géobrowsers (ArgooMap, Geowiki, WikiMapia, etc.). Les nouvelles applications nées de ces mashups évoluent vers des formes plus interactives d’intelligence collective. Mais ces applications ne prennent pas en compte les spécificités du travail collaboratif, en particulier la gestion de traçabilité ou l’accès dynamique à l’historique des contributions. Le Geodesign est un nouveau domaine fruit de l’association des SIG et du design, permettant à une équipe multidisciplinaire de travailler ensemble. Compte tenu de son caractère émergent, le Geodesign n’est pas assez défini et il requiert une base théorique innovante, de nouveaux outils, supports, technologies et pratiques afin de s'adapter à ses exigences complexes. Nous proposons dans cette thèse de nouvelles fonctionnalités de type WikiSIG, bâties sur les principes et technologies du GéoWeb 2.0 et visant en particulier à supporter la dimension collaborative du processus de Geodesign. Le WikiSIG est doté de fonctionnalités wiki dédiées à la donnée géospatiale (y compris dans sa composante géométrique : forme et localisation) permettant d’assurer, de manière dynamique, la gestion documentée des versions des objets et l’accès à ces versions (et de leurs métadonnées), facilitant ainsi le travail collaboratif en Geodesign. Nous proposons également la deltification qui consiste en la capacité de comparer et d’afficher les différences entre deux versions de projets. Finalement la pertinence de quelques outils du géotraitement et « sketching » est évoquée. Les principales contributions de cette thèse sont d’une part d’identifier les besoins, les exigences et les contraintes du processus de Geodesign collaboratif, et d’autre part de proposer des nouvelles fonctionnalités WikiSIG répondant au mieux à la dimension collaborative du processus. Pour ce faire, un cadre théorique est dressé où nous avons identifié les exigences du travail collaboratif de Geodesign et proposé certaines fonctionnalités WikiSIG innovantes qui sont par la suite formalisés en diagrammes UML. Une maquette informatique est aussi développée de façon à mettre en oeuvre ces fonctionnalités, lesquelles sont illustrées à partir d’un cas d’étude simulé, traité comme preuve du concept. La pertinence de ces fonctionnalités développées proposées est finalement validée par des experts à travers un questionnaire et des entrevues. En résumé, nous montrons dans cette thèse l’importance de la gestion de la traçabilité et comment accéder dynamiquement à l’historique dans un processus de Geodesign. Nous proposons aussi d’autres fonctionnalités comme la deltification, le volet multimédia supportant l’argumentation, les paramètres qualifiant les données produites, et la prise de décision collective par consensus, etc. / The emergence of Web 2.0 is materialized by new technologies (APIs, Ajax ...), by new practices (mashup, geotagging ...) and by new tools (wiki, blog ...). It is primarily based on the principle of participation and collaboration. In this dynamic, the web mapping with spatial character or simply called Geospatial Web (or Geoweb) evolves by strong technological and social changes. Participatory GeoWeb 2.0 is materialized in particular by mashups among wikis and géobrowsers (ArgooMap, Geowiki, WikiMapia, etc.). The new applications resulting from these mashups are moving towards more interactive forms of collective intelligence. However, these applications do not take into account the collaborative work or the traceability management or the dynamic access to the history of contributions. The Geodesign is a new area, which is the coupling between GIS and design, allowing a multidisciplinary team to work together. As it is an emergent term, the Geodesign has not be well defined and it requires innovative theoretical basis, new tools, media, technologies and practices to fit its complex requirements. We propose precisely in this thesis new features of WikiGIS, which is built on Web 2.0 technologies, and GeoWeb 2.0 aiming in particular to support the collaborative dimension of Geodesign process. The WikiGIS consists of wiki features for the geospatial data (including its geometric component: shape and location) to ensure, dynamically, the documented release management objects and access to these versions (and metadata), facilitating collaborative work on Geodesign. It aims to produce geographic information, while ensuring the quality and credibility of data created. We propose the “deltification” as one of the innovative features of WikiGIS, it is the ability to compare and display the differences between two versions of a project. Finally, the relevance of some geoprocessing and "sketching" tools is mentioned. The main contributions of the present thesis are firstly identifying the needs, requirements and constraints of collaborative Geodesign process, and secondly to offer new features of WikiSIG best meeting to the collaborative dimension of this process. For this, a theoretical framework is drawn up which we identified the requirements of the collaborative Geodesign process and we proposed some innovative features that are subsequently formalized by UML. A user mock-up is developed in order to show the WikiGIS features, which are illustrated on a simulated case study, treated as proof of concept. Finally, these concepts are ultimately validated by experts through a questionnaire and interviews. Briefly, we have amply demonstrated in this thesis the importance of traceability management and how to dynamically access in the historic of Geodesign process and we have proposed other features like deltification, multi-media component that supports the arguments, parameters describing the data produced, decision making by consensus, etc.

Page generated in 0.5044 seconds