• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 5
  • 2
  • Tagged with
  • 9
  • 9
  • 5
  • 5
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Les acteurs sociaux, le pouvoir et la concentration de la presse

Lajoie, France January 2004 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
2

Information quality in online social media and big data collection : an example of Twitter spam detection / Qualité de l'information dans les médias sociaux en ligne et collection de big data : un exemple de détection de spam sur twitter

Washha, Mahdi 17 July 2018 (has links)
La popularité des médias sociaux en ligne (Online Social Media - OSM) est fortement liée à la qualité du contenu généré par l'utilisateur (User Generated Content - UGC) et la protection de la vie privée des utilisateurs. En se basant sur la définition de la qualité de l'information, comme son aptitude à être exploitée, la facilité d'utilisation des OSM soulève de nombreux problèmes en termes de la qualité de l'information ce qui impacte les performances des applications exploitant ces OSM. Ces problèmes sont causés par des individus mal intentionnés (nommés spammeurs) qui utilisent les OSM pour disséminer des fausses informations et/ou des informations indésirables telles que les contenus commerciaux illégaux. La propagation et la diffusion de telle information, dit spam, entraînent d'énormes problèmes affectant la qualité de services proposés par les OSM. La majorité des OSM (comme Facebook, Twitter, etc.) sont quotidiennement attaquées par un énorme nombre d'utilisateurs mal intentionnés. Cependant, les techniques de filtrage adoptées par les OSM se sont avérées inefficaces dans le traitement de ce type d'information bruitée, nécessitant plusieurs semaines ou voir plusieurs mois pour filtrer l'information spam. En effet, plusieurs défis doivent être surmontées pour réaliser une méthode de filtrage de l'information bruitée . Les défis majeurs sous-jacents à cette problématique peuvent être résumés par : (i) données de masse ; (ii) vie privée et sécurité ; (iii) hétérogénéité des structures dans les réseaux sociaux ; (iv) diversité des formats du UGC ; (v) subjectivité et objectivité. Notre travail s'inscrit dans le cadre de l'amélioration de la qualité des contenus en termes de messages partagés (contenu spam) et de profils des utilisateurs (spammeurs) sur les OSM en abordant en détail les défis susmentionnés. Comme le spam social est le problème le plus récurant qui apparaît sur les OSM, nous proposons deux approches génériques pour détecter et filtrer le contenu spam : i) La première approche consiste à détecter le contenu spam (par exemple, les tweets spam) dans un flux en temps réel. ii) La seconde approche est dédiée au traitement d'un grand volume des données relatives aux profils utilisateurs des spammeurs (par exemple, les comptes Twitter). / The popularity of OSM is mainly conditioned by the integrity and the quality of UGC as well as the protection of users' privacy. Based on the definition of information quality as fitness for use, the high usability and accessibility of OSM have exposed many information quality (IQ) problems which consequently decrease the performance of OSM dependent applications. Such problems are caused by ill-intentioned individuals who misuse OSM services to spread different kinds of noisy information, including fake information, illegal commercial content, drug sales, mal- ware downloads, and phishing links. The propagation and spreading of noisy information cause enormous drawbacks related to resources consumptions, decreasing quality of service of OSM-based applications, and spending human efforts. The majority of popular social networks (e.g., Facebook, Twitter, etc) over the Web 2.0 is daily attacked by an enormous number of ill-intentioned users. However, those popular social networks are ineffective in handling the noisy information, requiring several weeks or months to detect them. Moreover, different challenges stand in front of building a complete OSM-based noisy information filtering methods that can overcome the shortcomings of OSM information filters. These challenges are summarized in: (i) big data; (ii) privacy and security; (iii) structure heterogeneity; (iv) UGC format diversity; (v) subjectivity and objectivity; (vi) and service limitations In this thesis, we focus on increasing the quality of social UGC that are published and publicly accessible in forms of posts and profiles over OSNs through addressing in-depth the stated serious challenges. As the social spam is the most common IQ problem appearing over the OSM, we introduce a design of two generic approaches for detecting and filtering out the spam content. The first approach is for detecting the spam posts (e.g., spam tweets) in a real-time stream, while the other approach is dedicated for handling a big data collection of social profiles (e.g., Twitter accounts).
3

Impacts de l'incertitude et de l'ambiguïté sur la pratique des SIRS : Exploration à l'aide d'études de cas en assainissement industriel

Roche, Vincent 20 December 2000 (has links) (PDF)
En aménagement du territoire, les modalités de conception et d'utilisation d'un Système d'Information à Référence Spatiale (SIRS) dépendent du type de contexte décisionnel auquel il est intégré : la gestion, la planification stratégique ou la négociation. De ce fait, le SIRS doit témoigner, de manière appropriée, des besoins en gestion de l'incertitude et de l'ambiguïté caractéristiques d'un type de contexte décisionnel. D'une part, ces deux concepts sont illustrés par le niveaux requis de flexibilité du processus de traitement de l'information. D'autre part, ils s'expriment au travers de la qualité de l'information classiquement caractérisée par son exactitude, sa complétude, sa cohérence, son opportunité et son intelligibilité, mais aussi par son réalisme, son interprétation, sa dialectique, sa projection et son originalité. Nous proposons un guide d'aide à la pratique des SIRS issu du croisement entre les caractéristiques des contextes décisionnels retenus et les attributs relatifs à la qualité de l'information. Des applications SIG sont développées pour chaque type de contexte décisionnel afin de confronter la pertinence de ce guide avec ces études de cas. Une application SIG en question : un organisme chargé de la gestion du milieu récepteur souhaite hiérarchiser ses interventions de contrôle réglementaire auprès des établissements industriels. Il peut, à l'aide d'un SIG, simuler le trajet probable de déversements toxiques potentiels en temps d'orage afin de déterminer les risques localisés d'impact sur le milieu récepteur, de même que les sources potentielles de pollution industrielle. Une application SIG en planification stratégique : un organisme chargé de la planification du traitement des effluents industriels souhaite analyser la faisabilité d'options de gestion collective en tenant compte d'indicateurs d'économies d'échelle, de coûts de transport et de vulnérabilité au déversement. Le couplage d'un SIG avec une procédure opérationnelle composée de fonctions d'optimisation sous contraintes peut constituer un support d'aide à la décision. Une application SIG en négociation coopérative : un organisme animant un processus de négociation relatif à la gestion collective des effluents industriels souhaite stimuler le débat entre acteurs publics et privés aux perceptions, valeurs et intérêts différents. Il peut proposer une méthode d'aide à la négociation basée sur les principes du jeu de rôle et sur un couplage entre un SIG et une méthode d'analyse multi-critères dans le but de rechercher une combinaison "contextualisée" d'options individuelles et collectives d'assainissement industriel tout en respectant les règles d'une négociation coopérative.
4

Nouvelle gestion publique et production de l'objectivité à Statistique Canada (1985-2008)

Dionne, Francis 09 1900 (has links) (PDF)
À l'ère du projet de société de l'information entrepris par les pays capitalistes avancés, l'économie est dominée par le travail informationnel. Dès lors, l'information et le savoir prennent la forme de marchandises. Comme l'entreprise dans l'économie mondialisée, les institutions étatiques sont encouragées à s'organiser en réseaux décentralisés, interconnectés, afin de faire circuler l'information de façon efficace. Les pratiques et discours du néo-management propres au secteur privé sont adoptés par l'État néolibéral sous le nom de Nouvelle Gestion Publique. L'État adopte en son sein des mécanismes de marché, il se met en spectacle, les pratiques de branding sont adoptées, et le citoyen est de plus en plus considéré comme un client. Dans ce contexte caractérisé par un besoin croissant d'information et par la montée en importance des corps non-élus participant à une nouvelle séparation des pouvoirs dans les démocraties, entre collecteurs d'informations empiriques non élus et émetteurs de jugements éthiques, sociaux et politiques élus, il nous semble pertinent de nous intéresser aux systèmes statistiques nationaux, en tant que sources d'expertise « indépendantes » dans la production et la diffusion d'informations quantifiées au service du débat démocratique (revendication de politiques publiques, critique des politiques existantes ou de leur mise en œuvre), et en tant qu'organes fondamentaux au fonctionnement de l'État. Afin de ne pas négliger les différences nationales qui existent entre les différents systèmes statistiques, nous nous penchons sur le cas de Statistique Canada. À la fin de 1984, à la suite du rapport du groupe de travail Nielsen sur l'examen des programmes, le gouvernement conservateur de Brian Mulroney décide de couper dans les dépenses de l'État et annonce que le recensement de 1986 n'aura pas lieu. Statistique Canada, soutenu par plusieurs acteurs concernés, réitère la pertinence du recensement et promet de le faire en gérant lui-même la réduction des dépenses et du personnel. Le mandat du nouveau statisticien en chef, Ivan Fellegi, débute et est caractérisé par l'adoption de principes inspirées de la Nouvelle Gestion publique qui répondent en partie aux coupes budgétaires gouvernementales. Trois pratiques inspirées de la Nouvelle Gestion publique appliquées au cours de la période étudiée sont retenues dans le cadre de notre mémoire : la gouvernance en réseau, la redéfinition des critères de qualité de l'information, et la commercialisation des produits d'information et des services du bureau statistique. L'objectif de cette recherche est de cerner en quoi l'adoption des pratiques inspirées de la Nouvelle gestion publique par le bureau statistique exerce une influence, si tel est le cas, sur la nature de l'information produite. De plus, nous voulons savoir si l'indépendance et les fonctions essentielles du bureau canadien de la statistique sont remises en question par de telles pratiques. La diversification et la commercialisation des demandes tendent à soumettre le critère de pertinence de l'information aux objectifs d'efficacité et de rentabilité des différents ministères et du secteur privé. Un rapprochement s'effectue entre les systèmes de données et l'application des politiques néolibérales. Enfin, l'harmonisation internationale des données, des systèmes de classification, des concepts et des définitions semblent s'effectuer en lien avec le processus de mondialisation de l'économie capitaliste. Sans que l'indépendance scientifique ne soit directement touchée par les pressions politiques et l'adoption de principes néo-managériaux, le contenu des enquêtes, le programme statistique et les fonctions essentielles du Bureau sont, eux, directement influencés. ______________________________________________________________________________
5

L'impact des réseaux sociaux numériques professionnels sur l’attractivité organisationnelle : une approche par la théorie du capital social / Impact of online professional social networks on organizational attractiveness : a social capital perspective

Teimourzadeh, Aria 12 November 2018 (has links)
Ce travail de recherche aborde la question de l’impact des réseaux sociaux numériques professionnels sur l’attractivité organisationnelle. Malgré la complexité et la diversité des études théorique et pratique portant sur la manière avec laquelle les membres des réseaux sociaux professionnels interagissent, les études portant sur l’attractivité organisationnelle et l’identification des membres dans le contexte d’e-recrutement demeurent limitées. Dans ce travail, le champ théorique qui a été mobilisé est la théorie du capital social. Il s’agit de mieux comprendre l'impact de l'identité sociale, la confiance sociale, bouche-à-oreille virtuel, le site des réseaux sociaux et le rôle médiateur de qualité d’information sur l’attractivité organisationnelle en tant qu’un employeur. La thèse propose un cadre d'analyse et conceptuel. En plus de la revue de la littérature, une étude complémentaire a été réalisée sur la base de 8 entretiens semi-directifs auprès de directeurs des ressources humaines afin de connaitre leur avis sur les motivations des entreprises qui intègrent l'utilisation des réseaux dans leurs pratiques de recrutement. Une étude quantitative a été menée à partir de 288 individus résidant en France et au Canada qui sont présents sur les réseaux sociaux numériques professionnels. Le but est de mesurer l’impact des facteurs identifiés dans la première étude qui influencent l’attractivité organisationnelle. Les résultats obtenus ont permis de comprendre l’importance du réseautage social, l’attractivité de site des réseaux sociaux ainsi que l’effet médiateur de qualité d’information sur l’attractivité organisationnelle, le prestige et l’intention des individus pour suivre des offres d’emploi sur ces plateformes. / This research work addresses the impact of professional social networks on the organizational attractiveness as an employer. Despite the complexity and diversity of studies on social networks both theoretical and practical regarding the way the members of professional social networks interact, the studies related to organizational attractiveness and membership identification in the context of e-recruitment is scarce remains limited. In this research, the social capital theory has been considered in order to better understand the impact of social identity, social trust, virtual word of mouth, the social networking platform and the mediating role of information quality on organizational attractiveness as an employer. In addition to the literature review, a first complementary study was carried out on the basis of 8 semi-directive interviews with human resources managers to obtain their opinions on the various stakeholders who integrate the use of these networks in their practices. A quantitative study was carried out on the basis of 288 individuals currently living in France and Canada who are present on professional online social networks in order to measure the impact of identified factors that influence the organizational attractiveness. The obtained results allowed us to understand the importance of social networking, the attractiveness of social networks sites and also the mediating effect of information quality on the organizational attractiveness as an employer, organizational prestige and intention of individuals to pursue job offers on these platforms.
6

L'information de gestion, critère de qualité de la communication avec l'actionnaire

Cavelius, Florence 04 April 2007 (has links) (PDF)
La diffusion d'une information de gestion (IG) de qualité améliore-t-elle la relation avec l'actionnaire ? Définies par les autorités de régulation comptable, les qualités attendues sont plus à même d'être atteintes par l'IG dans son champ large. Par ailleurs, le cadre théorique de la gouvernance fournit les déterminants de la diffusion d'informations et la mesure de son impact. Une étude qualitative est menée afin d'élaborer une méthode de mesure de la qualité. A partir d'une liste d'items appréhendant la qualité, trois indices sont élaborés dont la validité est ensuite testée sur un échantillon de 55 entreprises françaises cotées. Enfin, des interactions entre qualité de l'IG, diffusion et utilité pour l'actionnaire sont révélées, puis confirmées sur ce même échantillon de 55 entreprises par des tests boursiers. Un impact positif de la diffusion d'une IG de qualité apparaît, tandis que la volatilité montre l'incertitude des investisseurs lors d'une diffusion de moindre qualité.
7

Le retard de Montréal sur Toronto en matière de journalisme économique

Desjardins, Stéphane 06 1900 (has links) (PDF)
Le présent mémoire porte sur le retard de Montréal sur Toronto en matière de journalisme économique. Dans un contexte démographique où les Québécois sont plus endettés que jamais, ont un niveau insuffisant d'épargne et de littératie financière, ne contrôlent pas les leviers importants de leur économie, alors que l'économie planétaire est en mutation, avec la montée en puissance des pays émergents, l'information économique et financière joue plus que jamais un rôle stratégique. Malheureusement, le Québec, et plus particulièrement la région de Montréal, où se concentre l'essentiel de la richesse, des emplois de haut niveau, du pouvoir économique, de l'économie du savoir, de la recherche scientifique et des sièges sociaux des grandes entreprises, des médias, des universités et de la culture, accuse un retard important dans la qualité, la pertinence, la profondeur et même l'influence de l'information économique. Pendant qu'à Toronto, on dispose d'une presse de classe mondiale, Montréal est desservie par une presse provinciale. Le retard s'explique par un décalage sociohistorique du Québec par rapport aux questions d'argent, qui remonte à la Conquête. Malgré un rattrapage certain depuis la Révolution tranquille, ce décalage persiste et se répercute aussi sur la culture des salles de rédaction. Les médias québécois se constituent depuis peu une culture journalistique économique, qui existe depuis plusieurs générations dans des journaux comme le Globe and Mail et le National Post. L'encadrement du travail journalistique, au sein de ces quotidiens, est plus rigoureux et davantage tourné vers une notion de qualité qui est basée sur des standards plus élevés qu'au Québec, dans une volonté manifeste d'influencer les cercles du pouvoir. L'information pratiquée au Québec, qui dessert avant tout un lectorat de classe moyenne, est basée principalement sur un journalisme de vulgarisation et de couverture primaire de l'actualité. Les médias québécois, moins riches que ceux de Toronto, où se concentre le pouvoir financier et économique du pays, doivent avant tout couvrir l'actualité locale, pour plaire à des lecteurs a priori ethnocentriques et portés avant tout sur l'actualité dite "triviale". Mais un rattrapage est commencé et il est possible de concurrencer les plus grands médias de la planète avec des moyens moins imposants, pourvu que les entreprises de presse québécoises prennent un virage qualité. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Journalisme, économie, littératie financière, histoire, Québec (Province), Montréal, Toronto, médias, La Presse, Radio-Canada, Globe and Mail, National Post, qualité du journalisme, Conquête, Révolution tranquille, The Economist.
8

Qualité de l'information et vigilance collective sur le web. Étude des stratégies d'évaluation des sources en ligne par les professionnels de la gestion de l'information dans les organisations / Information quality and collective mindfulness on the web. Study of the online source selection strategies by corporate information professionals

Depauw, Jeremy 29 September 2009 (has links)
La complexité de l'environnement dans lequel évoluent les organisations se traduit par la coexistence permanente d'interprétations multiples et contradictoires de la situation. Perturbées dans leurs capacités de décision et d'action, les organisations déploient des dispositifs sophistiqués de vigilance collective qui permettent de faire face à cette complexité, restaurant leur capacité à dégager du sens et à orienter leur action. La gestion de l'information en fait partie. Parmi toutes les sources disponibles, internet en général, et le web en particulier, constituent les principaux points d'accès à l’information, faisant désormais partie intégrante de ces processus de création de sens. L'évolution récente du paysage informationnel, tant du point de vue des outils que de celui des pratiques, suscite de nouveaux défis. Par leur facilité d’utilisation et leur accessibilité croissante, de nouveaux types de sources en ligne ont remis en question la façon dont les utilisateurs partagent, consomment et produisent du contenu.  Cette thèse examine la remise en cause des processus habituels de vigilance collective, et en particulier celle de l'adaptation, chez les spécialistes de l'information, des stratégies d'évaluation de la qualité de l'information provenant des sources en ligne. La question de recherche mobilise trois éléments principaux : les professionnels de la gestion de l'information, l'évaluation de la qualité de l'information et l'évolution du paysage informationnel, qu'on appelle communément le Web 2.0. Pour répondre à cette question, une enquête de terrain a été menée auprès de 53 professionnels de la gestion de l'information en Belgique, entre novembre 2007 et juillet 2008. En l'absence de bases théoriques stables et largement acceptées, un cadre conceptuel spécifique a été développé pour assurer l'adéquation entre les éléments de la question de recherche et le dispositif. Ce cadre conceptuel a permis de faire la lumière sur ces éléments. Le recours à une approche sociopsychologique a permis de les articuler, notamment par emprunt aux travaux de Karl Weick et au concept de sensemaking.  La gestion de l'information (GI), considérée comme un processus de vigilance collective, est un concept générique, comprenant les activités de surveillance, de veille ou encore d'intelligence (économique, stratégique, compétitive, etc.). Sa conceptualisation, construite par une analyse de définitions des principaux termes qui lui sont associés, a mis en évidence l'importance de son rôle de médiateur d'information dans l'organisation, qui s'articule autour des étapes récurrentes de collecte, de traitement et de distribution de l'information. Le recours au concept d'organizational learning a permis de dépasser les approches purement mécaniques, mettant en évidence sa capacité à créer du de sens.  C'est au coeur de cette médiation, à l'intersection de la collecte et du traitement de l'information, qu'intervient un autre type de sensemaking: l'évaluation de la qualité de l'information. Elle est envisagée comme un processus de réduction de l'ambiguïté, dont l'action permet la sélection (ou non) d'une source ou d'une information dans la suite de la médiation. La qualité de l'information est abordée sous l'angle de l'information seeking qui permet de faire la lumière sur cette création de sens. Elle est généralement traitée dans la littérature en termes de pertinence, de crédibilité ou de fitness for use. Des études de terrain et des contributions émanant des praticiens ont permis de mettre en évidence les attributs et les critères de la qualité qui peuvent être mobilisés pour construire un jugement de qualité des sources en ligne. Dans le cadre de l'enquête de terrain, une check-list composée de 72 critères renvoyant à 9 attributs a été choisie comme cadre de référence pour l'observer: les objectifs de la source, sa couverture, son autorité et sa réputation, sa précision, sa mise à jour, son accessibilité, sa présentation, sa facilité d'utilisation et sa comparaison avec d'autres sources.    Pour pouvoir mettre en évidence de manière concrète les aspects du paysage informationnel en transformation, une analyse des définitions et descriptions du Web 2.0 a permis de construire une description morphologique qui reprend ses caractéristiques principales. Il peut ainsi être considéré comme un ensemble d'outils, de pratiques et de tendances. Les outils permettent d'identifier cinq types de sources qui lui sont spécifiques: les blogs, les wikis, les podcasts, les plates-formes de partage de fichiers et les sites de réseaux sociaux. Ces types de sources sont éclairés dans cette recherche sous l'angle du concept de genre et, ensemble, sont positionnés en tant que répertoire, qu'il est nécessaire de comparer avec celui des genres "classiques" de sources en ligne.  L'examen du changement des stratégies d'évaluation de la qualité de l'information a été concrétisé à l'aide d'un questionnaire administré par téléphone, qui visait à croiser les critères de qualité de la liste choisie comme référence avec les cinq genres typiques du Web 2.0. C'est l'importance relative accordée à un critère pour évaluer une information qui a été choisie comme indicateur à observer. Les répondants ont été invités à indiquer s'ils considèrent que l'importance des critères "change" ("≠") ou "ne change pas" ("=") quand ils évaluent un de ces genres, en comparaison de celle qu'ils accorderaient à un genre classique de source en ligne. En cas de changement, le questionnaire a prévu la possibilité de noter s'il s'agissait d'une hausse (">") ou d'une baisse ("<") d'importance. Pour compléter ce dispositif, 14 entretiens semi-dirigés en face à face ont été menés avec des répondants à ce questionnaire, de manière à pouvoir saisir les éléments explicatifs de leurs réponses.  L'analyse des données a montré qu'une majorité des réponses (57% de "=") indiquent que l'importance des critères d'évaluation ne change pas quand une information est mise à disposition par l'intermédiaire d'un genre Web 2.0, plutôt que par celui d'un genre classique de source en ligne. Pourtant, cela implique que 43% des critères changent d'une manière ou d'une autre. C'est sur base de ce constat que cette recherche soutient l'existence d'un changement perçu qui, s'il ne remet pas fondamentalement en cause le processus de jugement de qualité, suscite néanmoins une adaptation de ce dernier par les professionnels de la GI interrogés. La lecture des données à l'aide de variables secondaires a montré notamment une forte disparité des distributions de réponses entre les répondants; ce qui plaide en faveur du caractère subjectif, personnel et dépendant du contexte du processus d'évaluation. De même, elle a permis de déterminer l'existence de deux groupes d'attributs qui se différencient par le fait que le premier comporte des attributs liés au contenu de la source (les objectifs, l'autorité, la précision, etc.) alors que le second est composé d'attributs liés à la forme (présentation, facilité, etc.). Les entretiens de la seconde phase de l'enquête ont permis d'affiner l'analyse en éclairant, d'une part, sur la nature du changement et, d'autre part, sur les raisons de celui-ci. Les répondants ont indiqué que fondamentalement le processus d'évaluation est identique quel que soit le répertoire envisagé. Ils admettent toutefois que les genres typiques du Web 2.0 peuvent être à l'origine d'une perte de repères. Elle s'explique par la perception d'une familiarité moins grande à l'égard des sources et se traduit par une perte de la confiance qu'ils accordent aux sources et à leur jugement. Le changement perçu se manifeste donc par une hausse d'importance de certains attributs, qui aide les répondants à restaurer cette confiance. L'élément explicatif de ce changement peut être considéré comme un flou dans les modalités de création de contenu. Ce flou comporte trois dimensions: la façon dont est créé le contenu (How?), l'identité de celui qui le crée (Who?) et sa nature (What?). Ces dimensions peuvent être synthétisées par l'idée selon laquelle n'importe qui peut publier n'importe quoi.  Les entretiens approfondis confirment que les groupes d'attributs liés au contenu d'une part, et ceux liés à la forme d'autre part, sont bien des éléments explicatifs de la manière dont se manifeste le changement.  Dans le cas des attributs qui augmentent d'importance, les raisons invoquées renvoient au fait que la facilité de création de contenu à l'aide de ces genres permet à "n'importe qui" de créer du contenu. C'est pour cette raison que l'autorité et les objectifs de la source peuvent faire l'objet d'une attention plus forte que sur les genres classiques de sources en ligne. Le fait que n'importe qui puisse publier "n'importe quoi" renvoie à la nature du contenu créé par ces genres. Il est considéré comme dynamique, personnel, indicateur de tendances, source de signaux faibles, subjectifs, etc. Cela pousse les répondants qui sont sensibles à ces questions à remettre plus sérieusement en cause la précision par exemple. C'est aussi en raison de la facilité de création de contenu, et du fait que les outils du Web 2.0 réduisent la responsabilité de l'auteur dans la qualité de la conception de sa source, que des attributs de forme, quand ils changent d'importance, voient leur niveau baisser. Le second groupe a été signalé par les répondants comme étant davantage des indicateurs de sérieux et des arbitres dans leur processus d'évaluation. Que ce soit pour discuter des divergences de vue entre répondants ou pour déterminer les spécificités des genres, il apparaît qu'un aspect capital de la qualité de l'information tient à sa capacité à répondre aux besoins du moment, le fitness for use. Cette notion est intimement liée à celle de pertinence et toutes deux ont été résolument présentées comme déterminantes dans les stratégies, à la fois du point de vue du jugement d'une information ponctuelle, que dans l'attitude face à aux sources en général. Dans tous les cas, c'est d'abord les besoins d'information qui guident le choix. Toutes observations permettent d'apporter une réponse claire, riche et nuancée à la question de recherche.
9

Qualité de l'information et vigilance collective sur le web: étude des stratégies d'évaluation des sources en ligne par les professionnels de la gestion de l'information dans les organisations / Information quality and collective mindfulness on the web: study of the online source selection strategies by corporate information professionals

Depauw, Jeremy 29 September 2009 (has links)
La complexité de l'environnement dans lequel évoluent les organisations se traduit par la coexistence permanente d'interprétations multiples et contradictoires de la situation. Perturbées dans leurs capacités de décision et d'action, les organisations déploient des dispositifs sophistiqués de vigilance collective qui permettent de faire face à cette complexité, restaurant leur capacité à dégager du sens et à orienter leur action. La gestion de l'information en fait partie. Parmi toutes les sources disponibles, internet en général, et le web en particulier, constituent les principaux points d'accès à l’information, faisant désormais partie intégrante de ces processus de création de sens. L'évolution récente du paysage informationnel, tant du point de vue des outils que de celui des pratiques, suscite de nouveaux défis. Par leur facilité d’utilisation et leur accessibilité croissante, de nouveaux types de sources en ligne ont remis en question la façon dont les utilisateurs partagent, consomment et produisent du contenu. <p><p>Cette thèse examine la remise en cause des processus habituels de vigilance collective, et en particulier celle de l'adaptation, chez les spécialistes de l'information, des stratégies d'évaluation de la qualité de l'information provenant des sources en ligne. La question de recherche mobilise trois éléments principaux :les professionnels de la gestion de l'information, l'évaluation de la qualité de l'information et l'évolution du paysage informationnel, qu'on appelle communément le Web 2.0. Pour répondre à cette question, une enquête de terrain a été menée auprès de 53 professionnels de la gestion de l'information en Belgique, entre novembre 2007 et juillet 2008. En l'absence de bases théoriques stables et largement acceptées, un cadre conceptuel spécifique a été développé pour assurer l'adéquation entre les éléments de la question de recherche et le dispositif. Ce cadre conceptuel a permis de faire la lumière sur ces éléments. Le recours à une approche sociopsychologique a permis de les articuler, notamment par emprunt aux travaux de Karl Weick et au concept de sensemaking. <p><p>La gestion de l'information (GI), considérée comme un processus de vigilance collective, est un concept générique, comprenant les activités de surveillance, de veille ou encore d'intelligence (économique, stratégique, compétitive, etc.).<p>Sa conceptualisation, construite par une analyse de définitions des principaux termes qui lui sont associés, a mis en évidence l'importance de son rôle de médiateur d'information dans l'organisation, qui s'articule autour des étapes récurrentes de collecte, de traitement et de distribution de l'information. Le recours au concept d'organizational learning a permis de dépasser les approches purement mécaniques, mettant en évidence sa capacité à créer du de sens. <p><p>C'est au coeur de cette médiation, à l'intersection de la collecte et du traitement de l'information, qu'intervient un autre type de sensemaking: l'évaluation de la qualité de l'information. Elle est envisagée comme un processus de réduction de l'ambiguïté, dont l'action permet la sélection (ou non) d'une source ou d'une information dans la suite de la médiation. La qualité de l'information est abordée sous l'angle de l'information seeking qui permet de faire la lumière sur cette création de sens. Elle est généralement traitée dans la littérature en termes de pertinence, de crédibilité ou de fitness for use. Des études de terrain et des contributions émanant des praticiens ont permis de mettre en évidence les attributs et les critères de la qualité qui peuvent être mobilisés pour construire un jugement de qualité des sources en ligne. Dans le cadre de l'enquête de terrain, une check-list composée de 72 critères renvoyant à 9 attributs a été choisie comme cadre de référence pour l'observer: les objectifs de la source, sa couverture, son autorité et sa réputation, sa précision, sa mise à jour, son accessibilité, sa présentation, sa facilité d'utilisation et sa comparaison avec d'autres sources. <p> <p>Pour pouvoir mettre en évidence de manière concrète les aspects du paysage informationnel en transformation, une analyse des définitions et descriptions du Web 2.0 a permis de construire une description morphologique qui reprend ses caractéristiques principales. Il peut ainsi être considéré comme un ensemble d'outils, de pratiques et de tendances. Les outils permettent d'identifier cinq types de sources qui lui sont spécifiques: les blogs, les wikis, les podcasts, les plates-formes de partage de fichiers et les sites de réseaux sociaux. Ces types de sources sont éclairés dans cette recherche sous l'angle du concept de genre et, ensemble, sont positionnés en tant que répertoire, qu'il est nécessaire de comparer avec celui des genres "classiques" de sources en ligne. <p><p>L'examen du changement des stratégies d'évaluation de la qualité de l'information a été concrétisé à l'aide d'un questionnaire administré par téléphone, qui visait à croiser les critères de qualité de la liste choisie comme référence avec les cinq genres typiques du Web 2.0. C'est l'importance relative accordée à un critère pour évaluer une information qui a été choisie comme indicateur à observer. Les répondants ont été invités à indiquer s'ils considèrent que l'importance des critères "change" ("≠") ou "ne change pas" ("=") quand ils évaluent un de ces genres, en comparaison de celle qu'ils accorderaient à un genre classique de source en ligne. En cas de changement, le questionnaire a prévu la possibilité de noter s'il s'agissait d'une hausse (">") ou d'une baisse ("<") d'importance. Pour compléter ce dispositif, 14 entretiens semi-dirigés en face à face ont été menés avec des répondants à ce questionnaire, de manière à pouvoir saisir les éléments explicatifs de leurs réponses. <p><p>L'analyse des données a montré qu'une majorité des réponses (57% de "=") indiquent que l'importance des critères d'évaluation ne change pas quand une information est mise à disposition par l'intermédiaire d'un genre Web 2.0, plutôt que par celui d'un genre classique de source en ligne. Pourtant, cela implique que 43% des critères changent d'une manière ou d'une autre. C'est sur base de ce constat que cette recherche soutient l'existence d'un changement perçu qui, s'il ne remet pas fondamentalement en cause le processus de jugement de qualité, suscite néanmoins une adaptation de ce dernier par les professionnels de la GI interrogés. La lecture des données à l'aide de variables secondaires a montré notamment une forte disparité des distributions de réponses entre les répondants; ce qui plaide en faveur du caractère subjectif, personnel et dépendant du contexte du processus d'évaluation. De même, elle a permis de déterminer l'existence de deux groupes d'attributs qui se différencient par le fait que le premier comporte des attributs liés au contenu de la source (les objectifs, l'autorité, la précision, etc.) alors que le second est composé d'attributs liés à la forme (présentation, facilité, etc.).<p><p>Les entretiens de la seconde phase de l'enquête ont permis d'affiner l'analyse en éclairant, d'une part, sur la nature du changement et, d'autre part, sur les raisons de celui-ci. Les répondants ont indiqué que fondamentalement le processus d'évaluation est identique quel que soit le répertoire envisagé. Ils admettent toutefois que les genres typiques du Web 2.0 peuvent être à l'origine d'une perte de repères. Elle s'explique par la perception d'une familiarité moins grande à l'égard des sources et se traduit par une perte de la confiance qu'ils accordent aux sources et à leur jugement. Le changement perçu se manifeste donc par une hausse d'importance de certains attributs, qui aide les répondants à restaurer cette confiance. L'élément explicatif de ce changement peut être considéré comme un flou dans les modalités de création de contenu. Ce flou comporte trois dimensions: la façon dont est créé le contenu (How?), l'identité de celui qui le crée (Who?) et sa nature (What?). Ces dimensions peuvent être synthétisées par l'idée selon laquelle n'importe qui peut publier n'importe quoi. <p><p>Les entretiens approfondis confirment que les groupes d'attributs liés au contenu d'une part, et ceux liés à la forme d'autre part, sont bien des éléments explicatifs de la manière dont se manifeste le changement.  Dans le cas des attributs qui augmentent d'importance, les raisons invoquées renvoient au fait que la facilité de création de contenu à l'aide de ces genres permet à "n'importe qui" de créer du contenu. C'est pour cette raison que l'autorité et les objectifs de la source peuvent faire l'objet d'une attention plus forte que sur les genres classiques de sources en ligne. Le fait que n'importe qui puisse publier "n'importe quoi" renvoie à la nature du contenu créé par ces genres. Il est considéré comme dynamique, personnel, indicateur de tendances, source de signaux faibles, subjectifs, etc. Cela pousse les répondants qui sont sensibles à ces questions à remettre plus sérieusement en cause la précision par exemple. C'est aussi en raison de la facilité de création de contenu, et du fait que les outils du Web 2.0 réduisent la responsabilité de l'auteur dans la qualité de la conception de sa source, que des attributs de forme, quand ils changent d'importance, voient leur niveau baisser. Le second groupe a été signalé par les répondants comme étant davantage des indicateurs de sérieux et des arbitres dans leur processus d'évaluation.<p><p>Que ce soit pour discuter des divergences de vue entre répondants ou pour déterminer les spécificités des genres, il apparaît qu'un aspect capital de la qualité de l'information tient à sa capacité à répondre aux besoins du moment, le fitness for use. Cette notion est intimement liée à celle de pertinence et toutes deux ont été résolument présentées comme déterminantes dans les stratégies, à la fois du point de vue du jugement d'une information ponctuelle, que dans l'attitude face à aux sources en général. Dans tous les cas, c'est d'abord les besoins d'information qui guident le choix. Toutes observations permettent d'apporter une réponse claire, riche et nuancée à la question de recherche. / Doctorat en Information et communication / info:eu-repo/semantics/nonPublished

Page generated in 0.518 seconds