• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 8
  • 2
  • Tagged with
  • 10
  • 10
  • 10
  • 9
  • 3
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Les facteurs de succès d'un système d'information et leur relation avec la satisfaction informationnelle

Houle, Yvon 02 April 2024 (has links)
« La littérature en systèmes d'information énonce plusieurs recommandations sur la façon de concevoir, administrer et implanter un système d'information. Cette recherche s'intéresse aux suggestions qui concernent la conception et l'implantation d'un système d'information en vérifiant leur présence dans la pratique québécoise de même que leur relation au succès d'un système d'information. Les recommandations vérifiées sont la résultante d'une revue de la littérature qui permit de retenir une liste de suggestions que nous identifions comme "facteurs de succès". Ces suggestions furent soumises à l'évaluation d'experts en systèmes d'information. Ces évaluations furent par la suite analysées, ce qui réduisit le nombre de facteurs de succès pertinents à 16. La satisfaction informationnelle de l'usager d'un système d'information est le critère utilisé dans cette recherche pour mesurer le succès d'un système. Ce concept de satisfaction informationnelle fut validé par une étude empirique auprès d'usagers de systèmes d'information. Utilisé comme instrument de mesure, une analyse permit de le définir comme suit: c'est la résultante de l'agrégation des évaluations que fait l'usager des attributs suivants de l'information que lui fournit un système d'information: accessible, à jour, adaptée, compréhensible, flexible, pertinente, simple, utile, complète, fiable, à temps et concise. Les données qui ont servi à atteindre les objectifs de cette recherche furent cueillies par questionnaires auprès de 375 usagers et de 107 concepteurs de systèmes dans 19 organisations des secteurs public, para-public et privé. Ces données permettent de conclure à la présence des facteurs de succès dans la pratique québécoise. La théorie et la pratique sont donc rapprochées puisque la très grande majorité des facteurs de succès sont utilisés par les praticiens du Québec. Deuxième objectif de cette recherche, une analyse des résultats obtenus permet de conclure que les facteurs de succès sont reliés significativement à la satisfaction informationnelle de l'usager. C'est ainsi que, dans le secteur public 6 des 16 facteurs sont corrélés significativement à la satisfaction informationnelle, 3 dans le secteur para-public et 1 dans le secteur privé. Pour l'ensemble des 3 secteurs à la fois, 11 facteurs sur 16 sont reliés significativement à la satisfaction informationnelle. Les contributions les plus importantes de cette recherche se situent au niveau de la validation empirique de certains principes mentionnés dans la littérature, au niveau du développement du concept de satisfaction informationnelle, ainsi que du développement et de la validation d'un instrument permettant de la mesurer. Finalement, pour les concepteurs et analystes qui acceptent la satisfaction informationnelle comme critère de succès, cette recherche contient plusieurs éléments qui peuvent servir de guide au développement d'un système d'information. »--Pages xi-xii
2

Applications of program management information systems

Keirstead, Karl. 13 March 2020 (has links)
Québec Université Laval, Bibliothèque 2020
3

Improving knowledge about the risks of inappropriate uses of geospatial data by introducing a collaborative approach in the design of geospatial databases

Grira, Joël 20 April 2018 (has links)
La disponibilité accrue de l’information géospatiale est, de nos jours, une réalité que plusieurs organisations, et même le grand public, tentent de rentabiliser; la possibilité de réutilisation des jeux de données est désormais une alternative envisageable par les organisations compte tenu des économies de coûts qui en résulteraient. La qualité de données de ces jeux de données peut être variable et discutable selon le contexte d’utilisation. L’enjeu d’inadéquation à l’utilisation de ces données devient d’autant plus important lorsqu’il y a disparité entre les nombreuses expertises des utilisateurs finaux de la donnée géospatiale. La gestion des risques d’usages inappropriés de l’information géospatiale a fait l’objet de plusieurs recherches au cours des quinze dernières années. Dans ce contexte, plusieurs approches ont été proposées pour traiter ces risques : parmi ces approches, certaines sont préventives et d’autres sont plutôt palliatives et gèrent le risque après l'occurrence de ses conséquences; néanmoins, ces approches sont souvent basées sur des initiatives ad-hoc non systémiques. Ainsi, pendant le processus de conception de la base de données géospatiale, l’analyse de risque n’est pas toujours effectuée conformément aux principes d’ingénierie des exigences (Requirements Engineering) ni aux orientations et recommandations des normes et standards ISO. Dans cette thèse, nous émettons l'hypothèse qu’il est possible de définir une nouvelle approche préventive pour l’identification et l’analyse des risques liés à des usages inappropriés de la donnée géospatiale. Nous pensons que l’expertise et la connaissance détenues par les experts (i.e. experts en geoTI), ainsi que par les utilisateurs professionnels de la donnée géospatiale dans le cadre institutionnel de leurs fonctions (i.e. experts du domaine d'application), constituent un élément clé dans l’évaluation des risques liés aux usages inadéquats de ladite donnée, d’où l’importance d’enrichir cette connaissance. Ainsi, nous passons en revue le processus de conception des bases de données géospatiales et proposons une approche collaborative d’analyse des exigences axée sur l’utilisateur. Dans le cadre de cette approche, l’utilisateur expert et professionnel est impliqué dans un processus collaboratif favorisant l’identification a priori des cas d’usages inappropriés. Ensuite, en passant en revue la recherche en analyse de risques, nous proposons une intégration systémique du processus d’analyse de risque au processus de la conception de bases de données géospatiales et ce, via la technique Delphi. Finalement, toujours dans le cadre d’une approche collaborative, un référentiel ontologique de risque est proposé pour enrichir les connaissances sur les risques et pour diffuser cette connaissance aux concepteurs et utilisateurs finaux. L’approche est implantée sous une plateforme web pour mettre en œuvre les concepts et montrer sa faisabilité. / Nowadays, the increased availability of geospatial information is a reality that many organizations, and even the general public, are trying to transform to a financial benefit. The reusability of datasets is now a viable alternative that may help organizations to achieve cost savings. The quality of these datasets may vary depending on the usage context. The issue of geospatial data misuse becomes even more important because of the disparity between the different expertises of the geospatial data end-users. Managing the risks of geospatial data misuse has been the subject of several studies over the past fifteen years. In this context, several approaches have been proposed to address these risks, namely preventive approaches and palliative approaches. However, these approaches are often based on ad-hoc initiatives. Thus, during the design process of the geospatial database, risk analysis is not always carried out in accordance neither with the principles/guidelines of requirements engineering nor with the recommendations of ISO standards. In this thesis, we suppose that it is possible to define a preventive approach for the identification and analysis of risks associated to inappropriate use of geospatial data. We believe that the expertise and knowledge held by experts and users of geospatial data are key elements for the assessment of risks of geospatial data misuse of this data. Hence, it becomes important to enrich that knowledge. Thus, we review the geospatial data design process and propose a collaborative and user-centric approach for requirements analysis. Under this approach, the user is involved in a collaborative process that helps provide an a priori identification of inappropriate use of the underlying data. Then, by reviewing research in the domain of risk analysis, we propose to systematically integrate risk analysis – using the Delphi technique – through the design of geospatial databases. Finally, still in the context of a collaborative approach, an ontological risk repository is proposed to enrich the knowledge about the risks of data misuse and to disseminate this knowledge to the design team, developers and end-users. The approach is then implemented using a web platform in order to demonstrate its feasibility and to get the concepts working within a concrete prototype.
4

Nouvelle méthode pour mieux informer les utilisateurs de portails Web sur les usages inappropriés de données géospatiales

Roy, Tania 19 April 2018 (has links)
Tableau d’honneur de la Faculté des études supérieures et postdoctorales, 2013-2014. / Dans le cas de portails Web donnant accès à de multiples jeux de données, il peut être difficile pour un utilisateur métier non expert en données géospatiales d’évaluer si les données présentent des risques d’utilisation, la seule information généralement disponible étant les métadonnées. Elles sont généralement présentées dans un langage technique, ce qui peut limiter la compréhension de leur portée sur les décisions de l’utilisateur. L’objectif principal de ce mémoire est de proposer une approche pour aider les utilisateurs et producteurs de données géospatiales à identifier et gérer les risques reliés à l’utilisation envisagée de données acquises dans un portail Web a posteriori de la production des données. L’approche utilisée pour répondre à nos objectifs consiste en une série de questions structurées adressées à l’utilisateur dont les réponses permettent d’identifier des risques. Dans le cas où celui-ci identifie des risques d’utilisation, des actions spécifiques de gestion du risque sont suggérées. / In the case of Web portals providing access to multiple data sets, it may be difficult for a non-expert user to assess if data may present risks; the only information generally available being metadata. These metadata are generally presented in a technical language, and it can be difficult for a non-expert user to understand the scope of the metadata on their decisions. The main objective of this thesis is to propose an approach for helping users and producers of geospatial data to identify and manage risks related to the planned use of data acquired through a Web portal, a posteriori of the production of data. The approach developed uses a series of structured questions to be answered by a user of geospatial data. Depending on the answers, the user can identify risks of use. When risks of data misuse are identified, specific risk management actions are suggested.
5

Quelle méthode adopter pour modéliser les processus métier de l'administration?

Saadi, Ali 11 April 2018 (has links)
Face à l'évolution incessante des systèmes d'informations et de leur complexité croissante, l'enjeu, sans nul doute le plus important dans les années à venir, est de construire le « parfait » système d'informations ou du moins maintenir un système d'informations cohérent, compréhensible, non impossible à gérer et au sein duquel les labyrinthes ne conduisent pas à des impasses ou nulle part. Longtemps cantonnées dans une vision purement informatique, les organisations ne peuvent se passer d'une approche qui englobe aussi bien le monde des métiers que celui de l'informatique. Adopter une vision par processus métier, au lieu de celle par projet, par application ou par besoin isolé, contribuera certainement à instaurer un langage commun à travers lequel les responsables métiers et les techniciens de l'information communiquent et font correspondre leurs perceptions globales de la réalité opérationnelle de l'entreprise et ses conséquences sur les visions organisationnelle et informationnelle dont ils ont respectivement la charge. Cependant, la prolifération des méthodes et des outils de modélisation et leur complexité ne facilitent guère cette unification des vues. Dans ce travail, nous nous sommes intéressés aux processus métier et à leur modélisation. Le but de cette étude est de présenter un échantillon des méthodes et des outils disponibles sur le marché et traitant de la modélisation des processus métier, et de s'en inspirer afin de proposer les principes d'une nouvelle méthode qui soit simple, facile à utiliser et surtout applicable dans son intégralité. Cet objectif de simplicité, de facilité et d'intégralité émane principalement du constat que les méthodes actuelles sont trop complexes pour l'usager, soit par le langage utilisé, souvent sophistiqué ou trop technique, soit par leur recherche d'universalité (être applicables à tous les cas et à toutes les organisations). Ensuite, nous avons appliqué la méthode, proposée, à un cas réel afin de nous permettre de détecter les points forts, les points faibles ainsi que la perception des acteurs qui ont participé à l'application de la méthode. Un bilan sur les apports de la méthode proposée ainsi que ses limites et ses perspectives est fourni en conclusion.
6

Le prototypage basé sur des méta données phase 1 du cycle de développement

Gomez, Dario 19 April 2018 (has links)
Le processus de conception des systèmes d'information (SI) est un processus long et complexe qui résulte en de nombreux échecs. Le prototypage informatique et la conception guidée par modèles ont été proposés comme une solution en améliorant la qualité des spécifications au début du cycle de vie d'un SI. L'objectif de notre recherche est de mieux orienter l'action de spécification des exigences dans la phase initiale de conception "Communication Client - Concepteur" et dans le début de la phase de développement "Communication Concepteur - Développeur" en utilisant des artefacts de prototypage. Notre travail ouvre concrètement une voie dans laquelle il devient possible d'envisager que toute modification au cours de la vie d'un SI puisse être effectuée à partir du modèle du domaine qui est l'intrant du "prototypeur", qui devient alors le SI lui-même. Mots clés: système d'information; méthodologie de conception; modèle conceptuel de données; spécification déclarative; spécification exécutable; prototype; méta-donnée; architecture applicative / Designing information systems is a lengthy and complex process that leads to numerous failures. Prototyping has been proposed as a solution to improve the specifications' quality in the beginning of an information system's life cycle. Every information system (IS) is based upon the information architecture ; it is, before all, a content about the perceived reality. A "domain" is a formalization of the perceived reality in which the IS users identify the representations of facts (the data) by means of semantic keys. IS designers have to transform this model using their knowledge about the abstract functioning of computers. The objective of our research is to guide the action of requirements specification in the initial design phase of "Communication Customer - Designer" and in the beginning of the development phase "Communication Designer - Developer" using prototyping artifacts. Our work actually opens the way where it becomes possible to envisage that every modification during the information system's life cycle could be done from within the domain model, which is an input for the "prototyper" and becomes then itself an information system. Keywords : information system ; design method ; conceptual data model ; déclarative specification; executables pecification; prototype ; méta-data ; application architecture
7

Analyse économétrique du taux de chargement des camions se déplaçant au Québec

Watters, Jonathan 11 April 2018 (has links)
Tableau d'honneur de la Faculté des études supérieures et postdoctorales, 2006-2007 / Cette étude analyse les déterminants du taux de chargement des camions et plus particulièrement l'effet lié à l'adoption des systèmes de gestion électronique des véhicules (SGEV). Pour ce faire, un modèle logit multinomial ordonné à effets fixes est estimé sur la base des observations de l'Enquête routière nationale de 1999 se rapportant à des camions qui ont effectué en tout ou en partie un déplacement sur le territoire québécois. Les principaux résultats indiquent que la taille du camion, la longueur du déplacement et le niveau de polyvalence de la remorque affectent positivement le taux de chargement alors que la nature des opérations du transporteur et la structure de propriété du camion ont relativement peu d'effet. Au plan technologique, l'adoption des SGEV réduit légèrement le taux de chargement sur les déplacements d'ALLER, mais affecte positivement celui-ci sur les déplacements de RETOUR.
8

Proposition d'amélioration d'un processus de développement de systèmes d'information - conclusions d'une expérience sur le terrain

Massé, Richard 12 January 2019 (has links)
Québec Université Laval, Bibliothèque 2018
9

Optimisation stochastique des systèmes multi-réservoirs par l'agrégation de scénarios et la programmation dynamique approximative

Zéphyr, Luckny 23 April 2018 (has links)
Les problèmes de gestion des réservoirs sont stochastiques principalement à cause de l’incertitude sur les apports naturels. Ceci entraine des modèles d’optimisation de grande taille pouvant être difficilement traitables numériquement. La première partie de cette thèse réexamine la méthode d’agrégation de scénarios proposée par Rockafellar et Wets (1991). L’objectif consiste à améliorer la vitesse de convergence de l’algorithme du progressive hedgging sur lequel repose la méthode. L’approche traditionnelle consiste à utiliser une valeur fixe pour ce paramètre ou à l’ajuster selon une trajectoire choisie a priori : croissante ou décroissante. Une approche dynamique est proposée pour mettre à jour le paramètre en fonction d’information sur la convergence globale fournie par les solutions à chaque itération. Il s’agit donc d’une approche a posteriori. La thèse aborde aussi la gestion des réservoirs par la programmation dynamique stochastique. Celle-ci se prête bien à ces problèmes de gestion à cause de la nature séquentielle de leurs décisions opérationnelles. Cependant, les applications sont limitées à un nombre restreint de réservoirs. La complexité du problème peut augmenter exponentiellement avec le nombre de variables d’état, particulièrement quand l’approche classique est utilisée, i.e. en discrétisant l’espace des états de « manière uniforme ». La thèse propose une approche d’approximation sur une grille irrégulière basée sur une décomposition simpliciale de l’espace des états. La fonction de valeur est évaluée aux sommets de ces simplexes et interpolée ailleurs. À l’aide de bornes sur la vraie fonction, la grille est raffinée tout en contrôlant l’erreur d’approximation commise. En outre, dans un contexte décision-information spécifique, une hypothèse « uni-bassin », souvent utilisée par les hydrologues, est exploitée pour développer des formes analytiques pour l’espérance de la fonction de valeur. Bien que la méthode proposée ne résolve pas le problème de complexité non polynomiale de la programmation dynamique, les résultats d’une étude de cas industrielle montrent qu’il n’est pas forcément nécessaire d’utiliser une grille très dense pour approximer la fonction de valeur avec une précision acceptable. Une bonne approximation pourrait être obtenue en évaluant cette fonction uniquement en quelques points de grille choisis adéquatement. / Reservoir operation problems are in essence stochastic because of the uncertain nature of natural inflows. This leads to very large optimization models that may be difficult to handle numerically. The first part of this thesis revisits the scenario aggregation method proposed by Rochafellar and Wets (1991). Our objective is to improve the convergence of the progressive hedging algorithm on which the method is based. This algorithm is based on an augmented Lagrangian with a penalty parameter that plays an important role in its convergence. The classical approach consists in using a fixed value for the parameter or in adjusting it according a trajectory chosen a priori: decreasing or increasing. This thesis presents a dynamic approach to update the parameter based on information on the global convergence provided by the solutions at each iteration. Therefore, it is an a posteriori scheme. The thesis also addresses reservoir problems via stochastic dynamic programming. This scheme is widely used for such problems because of the sequential nature of the operational decisions of reservoir management. However, dynamic programing is limited to a small number of reservoirs. The complexity may increase exponentially with the dimension of the state variables, especially when the classical approach is used, i.e. by discretizing the state space into a "regular grid". This thesis proposes an approximation scheme over an irregular grid based on simplicial decomposition of the state space. The value function is evaluated over the vertices of these simplices and interpolated elsewhere. Using bounds on the true function, the grid is refined while controlling the approximation error. Furthermore, in a specific information-decision context, a "uni-bassin" assumption often used by hydrologists is exploited to develop analytical forms for the expectation of the value function. Though the proposed method does not eliminate the non-polynomial complexity of dynamic programming, the results of an industrial case study show that it is not absolutely necessary to use a very dense grid to appropriately approximate the value function. Good approximation may be obtained by evaluating this function at few appropriately selected grid points.
10

Variabilité spatio-temporelle de la qualité de l’eau potable des petits réseaux : facteurs explicatifs et développement d'outils de gestion

Scheili, Anna 23 April 2018 (has links)
Cette thèse est consacrée à la détermination des facteurs responsables de la variabilité spatio-temporelle de la qualité de l’eau potable dans les petits réseaux de distribution et au développement d’outils de gestion destinés aux opérateurs. Afin de réaliser cette thèse, des études de cas ont été conduites dans 25 petites municipalités (population inférieure à 5 000 habitants) de deux provinces Canadiennes (Québec et Terre-Neuve et Labrador). Le premier chapitre présente un portrait spatio-temporel de la qualité de l’eau brute et de l’eau potable dans les réseaux à l’étude. Des facteurs expliquant la variabilité de la qualité de l’eau y sont identifiés. Dans le deuxième chapitre, un indice de la qualité de l’eau potable est développé. Quatre scénarios de surveillance sont proposés selon les besoins spécifiques des petits réseaux afin de représenter la qualité globale de l’eau potable d’une façon adéquate. Le troisième chapitre s’intéresse à la détermination des paramètres de l’eau brute et des facteurs climatiques facilement mesurables qui ont un impact majeur sur la variabilité temporelle de la qualité de l’eau potable dans les petits réseaux à l’étude. Un modèle de régression logistique permet de développer un outil pour estimer la probabilité de la détérioration de la qualité de l’eau, en se basant sur les facteurs identifiés. Le dernier chapitre intègre les facteurs humains opératoires dans la gestion de l’eau potable. Tout d’abord, une catégorisation permet la détermination des facteurs humains opératoires ayant le plus d’impact sur la qualité de l’eau potable des petits réseaux. Une analyse multi-niveaux est également effectuée afin de d’évaluer la contribution relative des facteurs humains opératoires par rapport à la qualité de l’eau brute et au traitement. Finalement, l’impact de la variabilité temporelle des facteurs humains opératoires sur la qualité de l’eau est étudié. Mots-clés : Qualité de l’eau, eau potable, petits réseaux, variabilité spatio-temporelle, indice de la qualité de l’eau, facteurs climatiques, facteurs humains opératoires, outils de gestion. / This thesis focuses on the determination of factors that impact the spatio-temporal variability of drinking water quality in small systems and on the development of management tools intended to operators. Data was provided by sampling campaigns conducted in 25 small systems in two Canadian provinces (Quebec and Newfoundland and Labrador). The first chapter draws a spatio-temporal portrait of raw and drinking water quality in the systems under study. Some factors affecting the quality of drinking water are identified. In the second chapter, a drinking water quality index is developed. Four customized monitoring scenarios are proposed according to the specific needs of small systems, which allow the appropriate representation of global drinking water quality. The third chapter identifies raw water quality parameters and climate factors that have an important impact on the temporal variability of drinking water quality. Based on these factors, a logistic regression model allows the development of a tool that estimates the probability of the deterioration of drinking water quality. The last chapter considers human operational factors as impact factors in drinking water quality management. A categorization leads to the determination of the most important human operational factors contributing to drinking water quality. A multi-level model is applied to evaluate the relative contribution of human operational factors in comparison to the impact of raw water quality and treatment. Finally, the impact of the temporal variability of human operational factors on drinking water quality is investigated. Keywords: Water quality, drinking water, small systems, spatio-temporal variability, water quality index, climate factors, human operational factors, management tools.

Page generated in 0.2177 seconds