• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 173
  • 49
  • 19
  • Tagged with
  • 238
  • 238
  • 88
  • 62
  • 53
  • 46
  • 45
  • 43
  • 39
  • 39
  • 39
  • 35
  • 32
  • 32
  • 26
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Extraction d'éléments curvilignes guidée par des mécanismes attentionnels pour des images de télédétection. Approche par fusion de données

Cotteret, Gilles 11 April 2018 (has links)
L'extraction d'éléments curvilignes d’images de télédétection, surtout proches de la limite de résolution ou lorsqu'elles sont bruitées, représente toujours un défi important pour les algorithmes informatiques, alors que pour les interprètes humains c'est une tâche immédiate. Dans ce travail une méthode novatrice est présentée pour guider l'extraction d’éléments curvilignes (routes, cours d'eau, etc) d’images de télédétection. Cette méthode a pour but de mettre à jour les systèmes d'informations géographiques (SIG) grâce à un modèle inédit (ELECA) qui comporte trois parties. Le modèle ELECA tire avantage de deux idées principales. Les données utilisées ne sont pas seulement les images de télédétection mais également les données des SIG qui ne sont pas nécessairement à jour. Le modèle s’appuie également sur des progrès récents des sciences psycho-cognitives en imitant partiellement le mouvement des yeux durant une recherche visuelle. Ainsi les trois parties du modèle ELECA sont (1) une méthode de recherche de l’information locale qui utilise un oeil virtuel pour ne se focaliser qu’aux lieux d’information probable, évitant ainsi un traitement global de l’image ; (2) une méthode simple et rapide d’extraction de l’information locale par une adaptation astucieuse d’une analyse en composantes connexes ; et (3) une méthode originale de fusion des informations locales qui s’appuie sur des travaux de reconstruction de l’espace global par raisonnement spatial qualitatif. Le modèle ELECA évite de cette manière certains pièges dans lesquels tombent souvent les méthodes courantes/classiques. En particulier, la technique proposée peut être mise en oeuvre pour des images partiellement masquées ou de basse résolution pour lesquelles seulement des interprètes humains peuvent traiter l'image présentement. La méthode a été aussi élaborée pour être rapide et efficace afin de pouvoir réaliser des mises à jour de SIG très rapides lorsque nécessaire. La dernière partie de ce travail est consacrée à l’élaboration d’une solution informatique supportant le modèle ELECA. Une architecture logicielle souple et adaptative est mise en avant, permettant l’intégration de développements ultérieurs pour le modèle. Enfin un volet algorithmique montre concrètement que les solutions du modèle ELECA sont implantables en termes informatiques. / The extraction of curvilinear elements from remote sensing images, especially when noisy or near the limit of resolution constitutes a significant challenge for data-processing algorithms. In this work a method is presented for linear feature extraction in remote sensing (RS) images. An original model (ELECA) is introduced allowing out of date geographical information system (GIS) data to be updated though the use of a visual search method that mimics human eye movements. The ELECA model is composed of three parts : (1) a visual search module using virtual gaze to avoid processing the entire image ; (2) a simple and fast method for local information extraction by a clever adaptation of connected-component labeling ; and (3) an original method for the fusion of local information to construct a global representation at the scale of the image based on qualitative spatial reasoning techniques. The ELECA model avoids several problems characteristic of current methods. In particular, the proposed technique can be applied to low resolution or partially occluded images for which currently only human interpreters can successfully process the image. The technique is also designed to be very fast and efficient when a quick GIS update is needed. The last part of this project is devoted to the design of software which supports the ELECA model. The proposed software architecture is adaptive and allows the integration of future model developments. Finally it is shown how the ELECA model could be implemented. / La extracción de elementos curvilíneos de las imágenes de teledetección, sobre todo en proximidad del límite de resolución o en presencia de ruido, representa siempre un reto importante para los algoritmos informáticos, mientras que para los intérpretes humanos es una tarea inmediata. Este trabajo presenta un método nuevo para guiar la extracción de elementos curvilíneos (carreteras, ríos, etc.) de imágenes de teledetección. El objetivo del método consiste en actualizar un sistema de información geográfica (SIG) gracias a un modelo inédito (ELECA) constituído de tres partes. El modelo ELECA desarrolla dos ideas principales. El modelo puede utilizar las imágenes de teledetección y los datos del SIG que están desactualizados. El modelo se basa asimismo en resultados recientes de la investigación en ciencias psico-cognitivas, dado que imita parcialmente el movimiento de los ojos durante una búsqueda visual. Las tres partes del modelo ELECA son: (1) un método de búsqueda de la información local que utiliza un ojo virtual par focalizarse únicamente donde se encuentra la información probable, evitando un tratamiento global de la imagen; (2) un método simple y rápido de extracción de la información local, que utiliza una adaptación astuciosa de un análisis en componentes conexos; y (3) un método original de fusión de informaciones locales que se apoya sobre trabajos de reconstrucción del espacio global por razonamiento espacial cualitativo. El modelo ELECA evita así algunas trampas en las que caen a menudo los métodos clásicos. En particular, la técnica propuesta puede ser utilizada para imágenes parcialmente enmascaradas o de baja resolución, que sólo pueden ser tratadas actualmente por intérpretes humanos. El método ha sido elaborado para ser eficiente en la actualización rápida de un SIG si es necesario. La última parte de este trabajo presenta una solución informática elaborada para soportar el modelo ELECA. Una arquitectura de programa flexible y adaptable es presentada, permitiendo la integración de desarrollos ulteriores del modelo. Finalmente, un aspecto algorítmico muestra concretamente que las soluciones del modelo ELECA. se pueden implantar en términos informáticos.
32

Modèles prédictifs pour la post-adoption des systèmes d'information

Naceur, Rhouma 13 December 2023 (has links)
Thèse ou mémoire avec insertion d'articles / Les avancements fulgurants dans les technologies de l'information et de la communication (TIC) ont changé nos modes de vie à plusieurs égards. Ces technologies, perçues hier comme un luxe, sont devenues un choix indispensable dans les organisations contemporaines. Cette tendance s'est accentuée avec l'intensification de la mondialisation et l'ouverture des frontières économiques. En outre, la concurrence passera principalement par la mobilisation de ces technologies de pointe. Cette pression oblige les organisations à examiner les avantages de ces technologies. En effet, certains systèmes d'information nécessitent une mobilisation importante en matière de ressources, et donc, une prise de risque importante. Selon les statistiques d'une firme de sondage indépendante (Sage Group PLC, 2021), le coût moyen des implantations de certains systèmes d'information est évalué à 6.1 millions de dollars au cours des cinq dernières années . Cependant, la durée moyenne de ces projets ne dépasse pas les 15.7 mois. Ces statistiques nous poussent à mieux approfondir nos connaissances sur le sujet. Dans le cadre de notre thèse, nous nous focalisons sur l'impact de la post-adoption des systèmes d'information sur les processus influençant la performance financière et non financière de l'organisation dans un contexte canadien. De ce fait, la mesure de performance est considérée comme un indicateur pour évaluer le succès ou l'échec de l'adoption du système d'information. Cette mesure est à la fois complexe et illusoire. Ainsi, en nous basant sur les résultats empiriques de notre étude, nous étendons la portée de la thèse pour avoir une meilleure compréhension du succès et de l'échec vis-à-vis de l'adoption des systèmes d'information. Bien que les termes "échec" et "succès" sont bien connus et largement utilisés dans le champ de la technologie de l'information, mais ils demeurent délicats et sont difficiles à définir (Stefanovic et al., 2011; Petter et al., 2008; Jiang et al., 2002; Garrity & Sanders, 1998). Par ailleurs, nous visons définir une meilleure conceptualisation du succès et de l'échec de l'adoption du système d'information en se référant à la performance financière et non financière de la firme tout en prenant en considération le résultat des autres processus. Afin d'atteindre nos objectifs, nous avons commencé par explorer la littérature pour avoir une meilleure compréhension du domaine de l'adoption. Nous avons procédé par une étude exploratoire. Un questionnaire en ligne a été créé avec l'aide d'un expert et envoyé à des employés travaillant pour des organisations au Canada. Les données collectées ont été analysées avec les outils SPSS et SmartPLS afin de valider nos hypothèses. La régression des moindres carrés partiels (Partial least squares regression PLS) est utilisée pour analyser les différentes relations entre nos variables tandis que, pour comprendre la conceptualisation du succès et de l'échec, nous avons utilisé l'analyse par segmentation en deux étapes (the two-step cluster analysis technique). Les résultats obtenus nous ont permis d'avoir une compréhension du domaine de la gestion des organisations à travers le diagnostic de l'adoption des systèmes d'information et une compréhension des comportements et perceptions humains qui permettra une meilleure prédiction du succès ou de l'échec et donc une gestion organisationnelle optimale. Selon la littérature grise, malgré le fait que le taux d'échec était en déclin durant les dernières années, le taux de succès demeure presque stable. Nos résultats empiriques confirment la dépendance entre le succès et l'échec, ce qui permettra d'avoir une meilleure visibilité sur le taux réel du succès et de l'échec de l'adoption des systèmes d'information. Notre étude étend le modèle de TTF (Technology Fit Model), largement utilisé en TI (technologie de l'information). Elle intègre d'autres facteurs qui peuvent expliquer la performance de l'entreprise. Le nouveau modèle conceptuel permettra aux praticiens de mieux comprendre l'impact de l'utilisation sur la performance de l'entreprise, la performance individuelle et celle des processus d'affaires. Les résultats de notre étude incitent les praticiens à mettre en place des mesures de performance intégrant la qualité du système, la facilité de son utilisation, la performance individuelle et la performance des processus d'affaires. Ces facteurs ont un impact direct et indirect sur la performance financière et non financière de l'entreprise. Finalement, des recherches empiriques s'avèrent nécessaires pour évaluer l'impact de ces facteurs à travers différentes frontières contextuelles et culturelles. Les études futures doivent considérer d'autres facteurs comme la sécurité, qui de nos jours, devient une priorité afin de mieux comprendre l'effet de l'utilisation sur la satisfaction des utilisateurs et la performance de l'entreprise.
33

Qualitative topological relationships for objects with possibly vague shapes: implications on the specification of topological integrity constraints in transactional spatial databases and in spatial data warehouses

Bejaoui, Lofti 25 May 2009 (has links) (PDF)
Dans les bases de données spatiales actuellement mises en oeuvre, les phénomènes naturels sont généralement représentés par des géométries ayant des frontières bien délimitées. Une telle description de la réalité ignore le vague qui caractérise la forme de certains objets spatiaux (zones d'inondation, lacs, peuplements forestiers, etc.). La qualité des données enregistrées est donc dégradée du fait de ce décalage entre la réalitée et sa description. Cette thèse s'attaque à ce problème en proposant une nouvelle approche pour représenter des objets spatiaux ayant des formes vagues et caractériser leurs relations topologiques. Le modèle proposé, appelé QMM model (acronyme de Qualitative Min-Max model), utilise les notions d'extensions minimale et maximale pour représenter la partie incertaine d'un objet. Un ensemble d'adverbes permet d'exprimer la forme vague d'un objet (ex : a region with a partially broad boundary), ainsi que l'incertitude des relations topologiques entre deux objets (ex : weakly Contains, fairly Contains, etc.). Cette approche est moins fine que d'autres approches concurrentes (modélisation par sous-ensembles flous ou modélisation probabiliste). Mais elle nécessite un processus d'acquisition complexe des données. De plus elle est relativement simple à mettre en oeuvre avec les systèmes existants de gestion de bases de données. Cette approche est ensuite utilisée pour contrôler la qualité des données dans les bases de données spatiales et les entrepôts de données spatiales en spécifiant les contraintes d'intégrité basé sur les concepts du modèle QMM. Une extension du langage de contraintes OCL (Object Constraint Language) a été étudiée pour spécifier des contraintes topologiques impliquant des objets ayant des formes vagues. Un logiciel existant (outil OCLtoSQL développé à l'Université de Dresden) a été étendu pour permettre la génération automatique du code SQL d'une contrainte lorsque la base de données est gérée par un système relationnel. Une expérimentation de cet outil a été réalisée avec une base de données utilisée pour la gestion des épandages agricoles. Pour cette application, l'approche et l'outil sont apparus très efficients. Cette thèse comprend aussi une étude de l'intégration de bases de données spatiales hétérogènes lorsque les objets sont représentés avec le modèle QMM. Des résultats nouveaux ont été produits et des exemples d'application ont été explicités.
34

Détermination précise des vitesses et des accélérations d'un athlète par mesures GPS prises à haute fréquence

Veilleux, Jean-Philippe 12 April 2018 (has links)
L’objectif de cette étude est de développer une solution GPS optimale, en termes de précision, coût, et poids de l’équipement, afin de déterminer à une fréquence élevée les vitesses et les accélérations d’un athlète. Le mémoire est divisé en trois parties distinctes. Premièrement, la théorie relative aux calculs de la vitesse à partir de mesures GPS est présentée. Deuxièmement, la théorie relative aux calculs des accélérations est exposée. Troisièmement, les résultats relatifs aux tests terrain sont présentés. Ces tests ont permis de comparer différents paramètres servant à définir une méthodologie GPS optimale. Les principaux paramètres sont : le mode de traitement qui est soit en absolu ou en relatif ; les algorithmes de traitement exploitant les positions, les mesures de fréquence Doppler ou les mesures de phase ; les méthodes de pondération des observations ; les techniques de filtrage ; ainsi que les récepteurs GPS de diverses qualités. / The main objective of this research is to develop an optimal solution in terms of precision, cost and weight of the equipment for computing the athlete’s velocities and accelerations using high data rate GPS measurements. This thesis is divided into three major sections. First, the theory about the computation of velocity is presented. Then, the theory about the computation of acceleration is shown. Finally, results of field tests are given. These tests were conducted to compare different parameters used to define an optimal strategy to obtain precise velocities and accelerations. The principal parameters tested are: computation modes (stand-alone or differential); processing algorithms using pre-computed positions, Doppler frequencies or carrier phase measurements; weighted observation matrices using satellites elevation angles or signal/noise ratio; filtering techniques using a moving average or Fast Fourier Transform; and GPS receivers of different quality (low cost receiver or geodetic receiver).
35

Usages et pertinence d’une représentation volumique (3D) cadastrale dans un contexte de gestion municipale québécoise

Boubehrezh, Abbas 20 April 2018 (has links)
Les apports d’un cadastre 3D ont été démontrés par plusieurs chercheurs et organisations. Malgré ces nombreux travaux, très peu d’analyses et de synthèses sont proposées quant à l’utilité ou les usages spécifiques d’une représentation volumique (3D) cadastral dans le contexte particulier d’une gestion municipale. Dans ce sens, l’objectif principal de cette étude est de mieux connaître les usages actuels et besoins des gestionnaires municipaux en matière de représentation volumique cadastrale lorsque des propriétés sont superposées (cas spécifique où la 3e dimension géométrique est perçue comme étant intéressante). L’étude porte spécifiquement sur les cas indiqués comme étant du cadastre vertical du système du cadastre du Québec géré par le ministère des Ressources naturelles du Québec (MRN) et son usage dans certaines villes et municipalités québécoises. Les résultats sont présentés sous forme d’une enquête menée auprès d’un échantillon d’usagers municipaux et par la proposition de mécanismes menant à la production la plus automatisée possible de modèles 3D réalisés à partir des plans complémentaires issus du système du cadastre du Québec. Un sondage sur les usages actuels des plans cadastraux du Québec et des plans complémentaires du cadastre vertical a été effectué auprès d’intervenants municipaux responsables de la géomatique et de la gestion territoriale dans leur municipalité. 48 répondants des 36 municipalités ont participé au sondage, soit 32 répondants de 21 différentes villes, 15 répondants de 15 Municipalité régionale de comté (MRC) et un répondant de la Communauté Métropolitaine de Montréal. Les résultats montrent que 91% des acteurs municipaux sondés utilisent les plans cadastraux et lorsque des situations de superposition verticale des propriétés existent, où le cadastre vertical est disponible, 84% des répondants exploitent effectivement les plans complémentaires dans leurs activités professionnelles. Les répondants ont confirmé un réel besoin de posséder une représentation volumique cadastrale puisque que 81% ont répondu vouloir disposer de ce genre de représentation. Les mêmes usages que ceux des plans cadastraux sont envisagés pour la 3D soit comme appui aux systèmes qui servent à la taxation, à l'émission des permis de construction, au zonage et à l'aménagement du territoire et urbanisme. En termes de contenu de la représentation volumique, les mesures officielles (i.e. la longueur des limites, la superficie et le volume), la distinction entre les lots privés et communs et la géométrie volumique des lots sont jugées nécessaires par 85% des répondants. Finalement, une procédure qui se décline en deux grandes étapes de vectorisation et de modélisation 3D est proposée pour la construction automatisée d’une représentation volumique à partir des fichiers PDF des plans complémentaires. Celle-ci a été testée sur un condominium de trois étages, et prend 17 minutes avec 64 interventions pour la compléter. / Several researches and organizations have demonstrated the role of 3D volumetric representation in cadastral systems. Nevertheless, only a few have examined the usefulness and applications of 3D cadastral representations in municipal management. Thereupon, the principal objective of this study is to better understand the current and anticipated needs for the applications of 3D cadastral representations in municipal management in case of super-imposed properties (where the 3rd geometric dimension is foreseen as appealing). The research specifically investigates the case of vertical cadaster as noted in Quebec’s cadastral system arranged by the Ministry of Natural Resources (MNR) of Quebec Province as well as its application in number of cities and municipalities across the province. This study presents the interests as well as the requirements based on an inquiry among several municipal partners. Moreover, a mechanism is proposed to automate, as much as possible, the procedure to reconstruct cadastral 3D models from the complementary plans (vertically super-imposed data) which exist in Quebec’s cadastral system. A user survey targeting the actual applications of cadastral maps of Quebec as well as the complementary plans of the vertical cadaster was carried out among the municipal authorities who are responsible for geomatics and land management across the province. Totally, 48 participants from 36 municipalities responded to the survey. This includes 21 cities (32 participants), fifteen regional county municipalities (fifteen participants), and one metropolitan community (one participant). The results show that 91% of the participating municipal actors use cadastral maps. In case of super-imposed properties, where vertical cadaster is available, 84% of the respondents effectively benefit from the complementary plans for regulating the respective professional activities. The respondents have confirmed a real need for volumetric cadastral representation as 81% of them would like to have such representation at their disposal. 3D cadastral models have been considered useful to enhance the principal usages of cadastral maps such as taxation, issuance of construction permits, and regional and urban planning. In terms of content, 85% of the respondents indicate that the capabilities to represent the official measures (i.e. length of limits and edges, area, and volume), to distinguish between private and common lots, and to provide the volumetric geometry of the lots are among the necessary requirements of volumetric cadastral representations. Finally, a two-step procedure (vector digitization followed by 3D modeling) is proposed to improve the automation of volumetric cadastral reconstruction from image-form complementary plans (stored in PDF files). This procedure has been tested on a three-story condominium and takes 64 interventions in 17 minutes to complete.
36

Amélioration de la planification opérationnelle par une connaissance plus précise des stocks forestiers (produits spécifiques) et de leur localisation en forêt

Coudé, Véronique 16 April 2018 (has links)
De nos jours, les centres de transformation primaire de produits forestiers doivent adapter rapidement leurs approvisionnements afin d’être en mesure de satisfaire les besoins du marché. Pour répondre promptement aux commandes passées par les usines, les équipes de récolte doivent être déployées dans des peuplements forestiers possédant les caractéristiques désirées. Toute déviation à cet égard entraîne des coûts supplémentaires liés à la mise en place de mesures correctives. Ces mesures se traduisent habituellement par une augmentation des stocks coupés en forêt ou encore par des déplacements plus nombreux des équipements de récolte. Une pénurie, c’est-à-dire un manque de matière première à l’usine ou encore l’impossibilité de satisfaire la demande des clients sont d’autres effets possibles. Une connaissance adéquate de la distribution du volume des arbres sur pied par espèce et par classes de diamètres à hauteur de poitrine (DHP) pour les principales strates forestières apparaît donc comme une première étape pour améliorer la précision des approvisionnements. Cette connaissance semble en effet nécessaire pour être en mesure d’améliorer la gestion de la chaîne d’approvisionnement (ou de création de valeur) mais aussi pour mieux protéger l’environnement. Or, la forêt est très variable et il est difficile de prédire de manière précise la distribution des diamètres des tiges des peuplements qui la composent. L’erreur générée par cette variabilité engendre une incertitude quant à ces prédictions de ces distributions. Ce projet vise à évaluer la faisabilité de développer un système spatial qui puisse permettre de répondre à une demande pour un produit donné dans un délai court et motivé par les besoins des clients. Pour y arriver, des fonctions graphiques de distribution du volume cumulé en fonction du diamètre (DHP) pour chacune des strates forestières ont été développées et par la suite regroupées. À ces fonctions ont été appliquées des équations de régression basées sur le DHP afin de valider celles qui étaient significatives. Par la suite, un lien a été fait avec la carte forestière dans un logiciel SIG pour obtenir la probabilité de trouver le produit recherché. Ces étapes ont été réalisées avec succès donnant ainsi la possibilité de créer un outil pour le planificateur forestier qui lui permet de mieux tenir compte de la variabilité des stocks ligneux en forêt. Ce projet a ainsi démontré qu’il est possible d’utiliser l’information des inventaires forestiers pour développer des relations entre les données forestières et l’erreur qu’elles génèrent. Il a été possible d’intégrer ces informations pour créer un outil informatique fonctionnel qui présente une probabilité de trouver dans la forêt un produit spécifique donné. / Presently forest products transformation centers must be able to quickly adapt their resource supply in order to satisfy market needs. In order to react quickly to mill demands, forest harvesting activities must be deployed directly in forest stands that contain standing timber with the characteristics necessary to meet processing requirements. An inability to do this engenders involves additional costs related to the installation of corrective measures. Such measures usually result in an increase in forest stocks cut and/or in additional displacements of forest harvesting equipment. A shortage of supply -- i.e. a lack of raw material at the processing plant -- or difficulty in satisfying market needs are other possible effects. An adequate knowledge of standing tree distributions by species and diameter classes for the principal forest strata being harvested thus seems to be a useful way of ensuring adequate product-specific supply. Such knowledge indeed would seem to be required to improve forest management across the entire supply chain, and would also provide for better environmental protection. However, because forests are intrinsically highly variable, it is difficult to predict in a precise manner species and diameter distributions for specific stands in a given forest. This inherent forest variability generates uncertainty when these distributions are estimated or predicted. This project evaluates the developmental feasibility of a spatial system that can enable an immediate response in harvesting operations to a request for a specific species and size of tree by a processing facility that is motivated by clients’ needs. To accomplish this, species-specific graphic functions of volumes based on tree diameter distributions for each forest stratum were developed and compiled. Regression equations based on tree diameter were applied to these functions in order to validate those that were significant. Subsequently a link was established between the diameter distribution functions and a map of forest strata in a GIS software tool to obtain the probability of finding a sufficient volume of the desired tree type. The functionality discussed has been successfully implemented in this project in order to create a tool for forest planners that takes into account the variability of timber stocks in forests. This project has demonstrated that it is possible to use existing forest inventory information to develop relations between the forest data and the error it generates. Moreover, it was possible to integrate this information to create a functional GIS-based tool that indicates the likelihood of finding a desired quantity of a specific product in the forest.
37

Développement d'une approche pour l'analyse solap en temps réel : adapatation aux besoins des activités sportives en plein air

Lambert, Mélanie 12 April 2018 (has links)
Au cours des dernières années, différents types de travaux ont été réalisés indépendamment au sein du même centre de recherche (Centre de Recherche en Géomatique de l'Université Laval). Parmi ceux-ci, on retrouve des travaux axés sur l'acquisition et le traitement des données spatiales en sport de plein air d'une part, et des travaux axés sur l'exploration et l'analyse des données spatiales avec une solution SOLAP d'autre part. L'exploitation conjointe de ces travaux permettait de répondre à de nouvelles attentes et plus particulièrement à une nouvelle application : l'évaluation et l'analyse de la performance d'athlètes pratiquant un sport extérieur grâce à des données calculées à partir d'observations GPS. En effet, suite à des observations GPS, la position, la vitesse et l'accélération de l'athlète peuvent être calculées précisément. Cependant, aucun logiciel ne permettait d'analyser rapidement et facilement les nouvelles données recueillies. / Pourtant, les entraîneurs d'athlètes de haut niveau désirent obtenir des données sur les performances actuelles, de façon rapide et exacte, pour ainsi adapter immédiatement leur entraînement et favoriser le succès de l'athlète. Or, la technologie SOLAP offre aux utilisateurs une interface cliente très intuitive pour l'analyse spatio-temporelle. Cependant, son fonctionnement ne permettait pas d'ajouter rapidement de nouvelles données obtenues à partir d'observations GPS. Cette recherche visait alors à développer une approche répondant à des besoins d'analyse SOLAP en temps réel retrouvés dans certaines applications et plus particulièrement dans le sport de haut niveau. Nous avons aussi vérifié qu'une solution SOLAP utilisée dans le domaine de la gestion des entreprises pour faciliter les prises de décision peut être transposée dans celui de l'analyse de la performance des athlètes. Pour ce faire, un SOLAP juste-à-temps, baptisé SOLAP-SPORT, a été développé dans le cadre de ce projet de recherche.
38

Modélisation des coûts généralisés de déplacement en transport privé et public : automatisation des spécifications de paramètres pour la géo-simulation

Lachance-Bernard, Nicolas 16 April 2018 (has links)
Dans un premier temps, cette recherche développe une méthodologie pour la modélisation des coûts généralisés de déplacement en transport privé et public. La méthodologie permet l’automatisation des spécifications de paramètres pour la géo-simulation d’itinéraires individuels multimodaux avec TransCAD. Nous présentons les trois applications SIG-T développées dans le cadre de ce projet : CRADVoyagesTC – pour la définition et la localisation de l’offre du transport en commun, CRADTNetwork – pour la construction de graphes de transport en commun, et CRADRoutes – pour la simulation d’itinéraires individuels multiples. Dans un second temps, une étude de cas réalise la simulation d’itinéraires ayant pour origine les lieux de résidence et pour destination les principales agglomérations commerciales du territoire de la Communauté Métropolitaine de Québec (CMQ). Cette étude de cas vise à démontrer le bon fonctionnement et l’efficience de la méthodologie développée pour de futures recherches portant sur l’accessibilité et la mobilité. Les résultats sont commentés de manière sommaire. / This research develops a methodology for modelling generalized trip costs using private and public transportation modes. The methodology enables computer-assisted specification of parameters for disaggregated multimodal trip geo-simulations using TransCAD. We present three developed GIS-T applications within the current project: CRADVoyagesTC – for public transit supply definition and localization, CRADTNetwork – for public transit graph construction, and CRADRoutes – for multiple disaggregated trip paths simulation. Finally, a proof of concept application based on trip simulation using as origin the residential places and as destination the major shopping places of the Quebec Metropolitan Area (QMA) is presented. The main objective of this study case is to demonstrate the functionality and the efficiency of the developed methodology to be used in future accessibility and mobility researches. Preliminary results are discussed.
39

Exploration d’une méthodologie intégrant un système de positionnement intérieur par radiofréquence dans le cadre d’une évaluation muséale portant sur l’adéquation de parcours d'exposition

Beaudoin, Judith Marie 23 April 2018 (has links)
Tableau d’honneur de la Faculté des études supérieures et postdoctorales, 2015-2016 / L’évaluation muséale est un champ principalement actif dans le milieu universitaire et dans les grandes institutions muséales. Les ressources humaines et financières restreintes sont souvent des freins pour les petits et moyens musées à procéder à des démarches d’évaluation autre que le taux de fréquentation. Pourtant, ces études seraient aussi bénéfiques pour eux qu’elles peuvent l’être pour les grandes institutions. Les systèmes de positionnement intérieur semblent une voie intéressante pour permettre aux petits et moyens musées de réaliser des évaluations plus facilement, rapidement et avec un minimum de ressources spécialisées. Malgré un intérêt du milieu muséal et académique pour ces nouvelles technologies, peu de solutions ont été explorées et de méthodes développées dans l’optique d’en faire un outil adapté aux réalités des petits et moyens musées. Ce projet de recherche a pour objectif le développement d’une méthodologie qui intègre un système de positionnement au sein d’une démarche d’évaluation portant sur les parcours muséographiques en contexte de moyen musée. La méthodologie proposée est testée par la réalisation d’une évaluation muséale in situ. / The field of museum evaluation is mostly active in academia and bigger museums. Limited human and financial resources are often impediments for small and medium-size museums to conduct evaluation approaches other than attendance census. However, evaluation studies would be as beneficial for them as they are for large institutions. Indoor positioning systems seem like an attractive approach to enable small and medium-size museums to conduct evaluations more quickly, more easily and in a manner that requires less specialized resources. Although museum professionals and academics have shown interest for these new technologies, few solutions have been explored and methods developed in order to create a tool adapted to the realities of small and medium-sized museums. This research project aims to develop a methodology that integrates a positioning system in the evaluation process of the adequacy between the conceptual and visitor paths in the context of a medium sized museum. The proposed methodology has been tested by applying it to an on-site evaluation.
40

Un cadre d'évaluation systématique pour les outils d'intégration de systèmes d'information

Gomez, José Raul January 2011 (has links)
Au fil des dernières années, le développement d'applications Internet et le développement rapide des technologies mobiles ont provoqué, dans les organisations publiques et privées, la mise en place d'un mécanisme capable d'intégrer ces nouveaux développements aux systèmes d'information existants. Ce mécanisme doit être en mesure d'intégrer différentes structures et des technologies hétérogènes par le partage des données. C'est pourquoi il est important de faire un choix éclairé lorsqu'il faut sélectionner l'outil approprié pour l'intégration de ces systèmes. Dans ce projet de recherche, on propose le développement d'un cadre d'évaluation systématique pour les outils d'intégration de systèmes d'information par l'approche par médiateur, en focalisant l'évaluation sur trois critères : le temps d'implémentation, la performance et la complexité d'implémentation. (1) Le critère du temps porte sur l'évaluation du temps que prend l'implémentation d'un outil depuis l'étude bibliographique jusqu'à l'implémentation dans un prototype qui implémente différentes structures de données. (2) Le critère de performance consiste en la vitesse avec laquelle l'outil peut traiter différents jeux de données. (3) Le critère de complexité correspond à l'évaluation de la complexité d'implémentation de l'outil de manière quantitative basée sur l'application de différentes métriques logicielles. Ce dernier critère permet, en ajoutant une partie quantitative, de renforcer le premier critère qui donne une évaluation plus qualitative de la complexité d'implémentation de l'outil. Les résultats obtenus avec l'application du cadre d'évaluation pour les outils d'intégration ont permis de proposer un système de médiation comme mécanisme d'intégration de systèmes hétérogènes capable de traiter différentes structures de données, de faire le stockage de ces données et de les partager entre les systèmes intégrés en privilégiant la facilité d'implémentation, la performance ou encore la maintenabilité.

Page generated in 0.1722 seconds