• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 12
  • 2
  • 2
  • Tagged with
  • 17
  • 17
  • 8
  • 5
  • 5
  • 4
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Metrics and Test Procedures for Data Quality Estimation in the Aeronautical Telemetry Channel

Hill, Terry 10 1900 (has links)
ITC/USA 2015 Conference Proceedings / The Fifty-First Annual International Telemetering Conference and Technical Exhibition / October 26-29, 2015 / Bally's Hotel & Convention Center, Las Vegas, NV / There is great potential in using Best Source Selectors (BSS) to improve link availability in aeronautical telemetry applications. While the general notion that diverse data sources can be used to construct a consolidated stream of "better" data is well founded, there is no standardized means of determining the quality of the data streams being merged together. Absent this uniform quality data, the BSS has no analytically sound way of knowing which streams are better, or best. This problem is further exacerbated when one imagines that multiple vendors are developing data quality estimation schemes, with no standard definition of how to measure data quality. In this paper, we present measured performance for a specific Data Quality Metric (DQM) implementation, demonstrating that the signals present in the demodulator can be used to quickly and accurately measure the data quality, and we propose test methods for calibrating DQM over a wide variety of channel impairments. We also propose an efficient means of encapsulating this DQM information with the data, to simplify processing by the BSS. This work leads toward a potential standardization that would allow data quality estimators and best source selectors from multiple vendors to interoperate.
12

PERFORMANCE RESULTS USING DATA QUALITY ENCAPSULATION (DQE) AND BEST SOURCE SELECTION (BSS) IN AERONAUTICAL TELEMETRY ENVIRONMENTS

Geoghegan, Mark, Schumacher, Robert 10 1900 (has links)
Flight test telemetry environments can be particularly challenging due to RF shadowing, interference, multipath propagation, antenna pattern variations, and large operating ranges. In cases where the link quality is unacceptable, applying multiple receiving assets to a single test article can significantly improve the overall link reliability. The process of combining multiple received streams into a single consolidated stream is called Best Source Selection (BSS). Recent developments in BSS technology include a description of the maximum likelihood detection approach for combining multiple bit sources, and an efficient protocol for providing the real-time data quality metrics necessary for optimal BSS performance. This approach is being standardized and will be included in Appendix 2G of IRIG-106-17. This paper describes the application of this technology and presents performance results obtained during flight testing.
13

Targeted feedback collection for data source selection with uncertainty

Cortés Ríos, Julio César January 2018 (has links)
The aim of this dissertation is to contribute to research on pay-as-you-go data integration through the proposal of an approach for targeted feedback collection (TFC), which aims to improve the cost-effectiveness of feedback collection, especially when there is uncertainty associated with characteristics of the integration artefacts. In particular, this dissertation focuses on the data source selection task in data integration. It is shown how the impact of uncertainty about the evaluation of the characteristics of the candidate data sources, also known as data criteria, can be reduced, in a cost-effective manner, thereby improving the solutions to the data source selection problem. This dissertation shows how alternative approaches such as active learning and simple heuristics have drawbacks that throw light into the pursuit of better solutions to the problem. This dissertation describes the resulting TFC strategy and reports on its evaluation against alternative techniques. The evaluation scenarios vary from synthetic data sources with a single criterion and reliable feedback to real data sources with multiple criteria and unreliable feedback (such as can be obtained through crowdsourcing). The results confirm that the proposed TFC approach is cost-effective and leads to improved solutions for data source selection by seeking feedback that reduces uncertainty about the data criteria of the candidate data sources.
14

Impetuses for First, Second, and Third Year Law Student Information Seeking Behavior, and Perception of Common Knowledge and Citation

Helge, Kris 05 1900 (has links)
This dissertation examined how previous information literacy training, law student gender, age, and previously obtained education affects first, second, and third year law students selection of information sources, their understanding of common knowledge, and their decision of whether or not to give attribution to these sources. To examine these factors, this study implemented a paradigm called the principle of least effort that contended humans in general tended to complete the least amount of work possible to complete presented tasks. This study sought to discover whether law students follow this same path of completing the least amount of work possible to finish presented tasks, and whether this behavior affects information source selection, citation, and understanding of common knowledge. I performed six focus groups and crafted and disseminated an online survey to examine these factors. Via this data collection, it was discovered that law students do exhibit some differences in understanding of citation and citation behavior based on age and their year in law school. They also exhibited some differences regarding common knowledge based on their year in law school, where they received their information literacy training, and where they attend law school. Yet, no statistically significant differences were discovered regarding where one attends law school and citation and source selection. Further this study revealed law students do follow this paradigm and seek the path of least resistance to accomplish law school assignments.
15

Information literacies in school and everyday life : Swedish young people’s information literacies in different contexts

Lindbom, Hanna January 2023 (has links)
The aim of this thesis is to investigate how Swedish young people’s information literacies are learned and enacted in different contexts. This study contributes to the information literacies research area by comparing information literacies across contexts rather than focusing on either the school context or everyday life, which most previous research has done. The study has a societal relevance linked to the library and education professions. Semi-structured interviews were conducted with seven Swedish students in their last year of secondary school. The study’s understanding of information literacies is based on sociocultural theory and practice theories. The empirical data was analysed from a sociocultural perspective. Concepts such as cultural tools, mastery and appropriation, cognitive value, cognitive authority, imposed questions, and infrastructural meaning-making were used in the analysis. The results illustrate that information literacies in school are affected by the students being judged and graded. Outside of school more information is passively encountered rather than actively searched for. Finding ways to minimise time and effort is part of the participants’ information literacies. Across contexts, information literacies are socially shaped and negotiated. How information literacies are conceptualised and learned in school affects what is considered searching for information and assessing credibility outside of that context. In school, credibility assessments are learned explicitly, while outside of school they are learned implicitly. The study also indicates the importance of educating students about search engines and algorithms.
16

Qualité de l'information et vigilance collective sur le web. Étude des stratégies d'évaluation des sources en ligne par les professionnels de la gestion de l'information dans les organisations / Information quality and collective mindfulness on the web. Study of the online source selection strategies by corporate information professionals

Depauw, Jeremy 29 September 2009 (has links)
La complexité de l'environnement dans lequel évoluent les organisations se traduit par la coexistence permanente d'interprétations multiples et contradictoires de la situation. Perturbées dans leurs capacités de décision et d'action, les organisations déploient des dispositifs sophistiqués de vigilance collective qui permettent de faire face à cette complexité, restaurant leur capacité à dégager du sens et à orienter leur action. La gestion de l'information en fait partie. Parmi toutes les sources disponibles, internet en général, et le web en particulier, constituent les principaux points d'accès à l’information, faisant désormais partie intégrante de ces processus de création de sens. L'évolution récente du paysage informationnel, tant du point de vue des outils que de celui des pratiques, suscite de nouveaux défis. Par leur facilité d’utilisation et leur accessibilité croissante, de nouveaux types de sources en ligne ont remis en question la façon dont les utilisateurs partagent, consomment et produisent du contenu.  Cette thèse examine la remise en cause des processus habituels de vigilance collective, et en particulier celle de l'adaptation, chez les spécialistes de l'information, des stratégies d'évaluation de la qualité de l'information provenant des sources en ligne. La question de recherche mobilise trois éléments principaux : les professionnels de la gestion de l'information, l'évaluation de la qualité de l'information et l'évolution du paysage informationnel, qu'on appelle communément le Web 2.0. Pour répondre à cette question, une enquête de terrain a été menée auprès de 53 professionnels de la gestion de l'information en Belgique, entre novembre 2007 et juillet 2008. En l'absence de bases théoriques stables et largement acceptées, un cadre conceptuel spécifique a été développé pour assurer l'adéquation entre les éléments de la question de recherche et le dispositif. Ce cadre conceptuel a permis de faire la lumière sur ces éléments. Le recours à une approche sociopsychologique a permis de les articuler, notamment par emprunt aux travaux de Karl Weick et au concept de sensemaking.  La gestion de l'information (GI), considérée comme un processus de vigilance collective, est un concept générique, comprenant les activités de surveillance, de veille ou encore d'intelligence (économique, stratégique, compétitive, etc.). Sa conceptualisation, construite par une analyse de définitions des principaux termes qui lui sont associés, a mis en évidence l'importance de son rôle de médiateur d'information dans l'organisation, qui s'articule autour des étapes récurrentes de collecte, de traitement et de distribution de l'information. Le recours au concept d'organizational learning a permis de dépasser les approches purement mécaniques, mettant en évidence sa capacité à créer du de sens.  C'est au coeur de cette médiation, à l'intersection de la collecte et du traitement de l'information, qu'intervient un autre type de sensemaking: l'évaluation de la qualité de l'information. Elle est envisagée comme un processus de réduction de l'ambiguïté, dont l'action permet la sélection (ou non) d'une source ou d'une information dans la suite de la médiation. La qualité de l'information est abordée sous l'angle de l'information seeking qui permet de faire la lumière sur cette création de sens. Elle est généralement traitée dans la littérature en termes de pertinence, de crédibilité ou de fitness for use. Des études de terrain et des contributions émanant des praticiens ont permis de mettre en évidence les attributs et les critères de la qualité qui peuvent être mobilisés pour construire un jugement de qualité des sources en ligne. Dans le cadre de l'enquête de terrain, une check-list composée de 72 critères renvoyant à 9 attributs a été choisie comme cadre de référence pour l'observer: les objectifs de la source, sa couverture, son autorité et sa réputation, sa précision, sa mise à jour, son accessibilité, sa présentation, sa facilité d'utilisation et sa comparaison avec d'autres sources.    Pour pouvoir mettre en évidence de manière concrète les aspects du paysage informationnel en transformation, une analyse des définitions et descriptions du Web 2.0 a permis de construire une description morphologique qui reprend ses caractéristiques principales. Il peut ainsi être considéré comme un ensemble d'outils, de pratiques et de tendances. Les outils permettent d'identifier cinq types de sources qui lui sont spécifiques: les blogs, les wikis, les podcasts, les plates-formes de partage de fichiers et les sites de réseaux sociaux. Ces types de sources sont éclairés dans cette recherche sous l'angle du concept de genre et, ensemble, sont positionnés en tant que répertoire, qu'il est nécessaire de comparer avec celui des genres "classiques" de sources en ligne.  L'examen du changement des stratégies d'évaluation de la qualité de l'information a été concrétisé à l'aide d'un questionnaire administré par téléphone, qui visait à croiser les critères de qualité de la liste choisie comme référence avec les cinq genres typiques du Web 2.0. C'est l'importance relative accordée à un critère pour évaluer une information qui a été choisie comme indicateur à observer. Les répondants ont été invités à indiquer s'ils considèrent que l'importance des critères "change" ("≠") ou "ne change pas" ("=") quand ils évaluent un de ces genres, en comparaison de celle qu'ils accorderaient à un genre classique de source en ligne. En cas de changement, le questionnaire a prévu la possibilité de noter s'il s'agissait d'une hausse (">") ou d'une baisse ("<") d'importance. Pour compléter ce dispositif, 14 entretiens semi-dirigés en face à face ont été menés avec des répondants à ce questionnaire, de manière à pouvoir saisir les éléments explicatifs de leurs réponses.  L'analyse des données a montré qu'une majorité des réponses (57% de "=") indiquent que l'importance des critères d'évaluation ne change pas quand une information est mise à disposition par l'intermédiaire d'un genre Web 2.0, plutôt que par celui d'un genre classique de source en ligne. Pourtant, cela implique que 43% des critères changent d'une manière ou d'une autre. C'est sur base de ce constat que cette recherche soutient l'existence d'un changement perçu qui, s'il ne remet pas fondamentalement en cause le processus de jugement de qualité, suscite néanmoins une adaptation de ce dernier par les professionnels de la GI interrogés. La lecture des données à l'aide de variables secondaires a montré notamment une forte disparité des distributions de réponses entre les répondants; ce qui plaide en faveur du caractère subjectif, personnel et dépendant du contexte du processus d'évaluation. De même, elle a permis de déterminer l'existence de deux groupes d'attributs qui se différencient par le fait que le premier comporte des attributs liés au contenu de la source (les objectifs, l'autorité, la précision, etc.) alors que le second est composé d'attributs liés à la forme (présentation, facilité, etc.). Les entretiens de la seconde phase de l'enquête ont permis d'affiner l'analyse en éclairant, d'une part, sur la nature du changement et, d'autre part, sur les raisons de celui-ci. Les répondants ont indiqué que fondamentalement le processus d'évaluation est identique quel que soit le répertoire envisagé. Ils admettent toutefois que les genres typiques du Web 2.0 peuvent être à l'origine d'une perte de repères. Elle s'explique par la perception d'une familiarité moins grande à l'égard des sources et se traduit par une perte de la confiance qu'ils accordent aux sources et à leur jugement. Le changement perçu se manifeste donc par une hausse d'importance de certains attributs, qui aide les répondants à restaurer cette confiance. L'élément explicatif de ce changement peut être considéré comme un flou dans les modalités de création de contenu. Ce flou comporte trois dimensions: la façon dont est créé le contenu (How?), l'identité de celui qui le crée (Who?) et sa nature (What?). Ces dimensions peuvent être synthétisées par l'idée selon laquelle n'importe qui peut publier n'importe quoi.  Les entretiens approfondis confirment que les groupes d'attributs liés au contenu d'une part, et ceux liés à la forme d'autre part, sont bien des éléments explicatifs de la manière dont se manifeste le changement.  Dans le cas des attributs qui augmentent d'importance, les raisons invoquées renvoient au fait que la facilité de création de contenu à l'aide de ces genres permet à "n'importe qui" de créer du contenu. C'est pour cette raison que l'autorité et les objectifs de la source peuvent faire l'objet d'une attention plus forte que sur les genres classiques de sources en ligne. Le fait que n'importe qui puisse publier "n'importe quoi" renvoie à la nature du contenu créé par ces genres. Il est considéré comme dynamique, personnel, indicateur de tendances, source de signaux faibles, subjectifs, etc. Cela pousse les répondants qui sont sensibles à ces questions à remettre plus sérieusement en cause la précision par exemple. C'est aussi en raison de la facilité de création de contenu, et du fait que les outils du Web 2.0 réduisent la responsabilité de l'auteur dans la qualité de la conception de sa source, que des attributs de forme, quand ils changent d'importance, voient leur niveau baisser. Le second groupe a été signalé par les répondants comme étant davantage des indicateurs de sérieux et des arbitres dans leur processus d'évaluation. Que ce soit pour discuter des divergences de vue entre répondants ou pour déterminer les spécificités des genres, il apparaît qu'un aspect capital de la qualité de l'information tient à sa capacité à répondre aux besoins du moment, le fitness for use. Cette notion est intimement liée à celle de pertinence et toutes deux ont été résolument présentées comme déterminantes dans les stratégies, à la fois du point de vue du jugement d'une information ponctuelle, que dans l'attitude face à aux sources en général. Dans tous les cas, c'est d'abord les besoins d'information qui guident le choix. Toutes observations permettent d'apporter une réponse claire, riche et nuancée à la question de recherche.
17

Qualité de l'information et vigilance collective sur le web: étude des stratégies d'évaluation des sources en ligne par les professionnels de la gestion de l'information dans les organisations / Information quality and collective mindfulness on the web: study of the online source selection strategies by corporate information professionals

Depauw, Jeremy 29 September 2009 (has links)
La complexité de l'environnement dans lequel évoluent les organisations se traduit par la coexistence permanente d'interprétations multiples et contradictoires de la situation. Perturbées dans leurs capacités de décision et d'action, les organisations déploient des dispositifs sophistiqués de vigilance collective qui permettent de faire face à cette complexité, restaurant leur capacité à dégager du sens et à orienter leur action. La gestion de l'information en fait partie. Parmi toutes les sources disponibles, internet en général, et le web en particulier, constituent les principaux points d'accès à l’information, faisant désormais partie intégrante de ces processus de création de sens. L'évolution récente du paysage informationnel, tant du point de vue des outils que de celui des pratiques, suscite de nouveaux défis. Par leur facilité d’utilisation et leur accessibilité croissante, de nouveaux types de sources en ligne ont remis en question la façon dont les utilisateurs partagent, consomment et produisent du contenu. <p><p>Cette thèse examine la remise en cause des processus habituels de vigilance collective, et en particulier celle de l'adaptation, chez les spécialistes de l'information, des stratégies d'évaluation de la qualité de l'information provenant des sources en ligne. La question de recherche mobilise trois éléments principaux :les professionnels de la gestion de l'information, l'évaluation de la qualité de l'information et l'évolution du paysage informationnel, qu'on appelle communément le Web 2.0. Pour répondre à cette question, une enquête de terrain a été menée auprès de 53 professionnels de la gestion de l'information en Belgique, entre novembre 2007 et juillet 2008. En l'absence de bases théoriques stables et largement acceptées, un cadre conceptuel spécifique a été développé pour assurer l'adéquation entre les éléments de la question de recherche et le dispositif. Ce cadre conceptuel a permis de faire la lumière sur ces éléments. Le recours à une approche sociopsychologique a permis de les articuler, notamment par emprunt aux travaux de Karl Weick et au concept de sensemaking. <p><p>La gestion de l'information (GI), considérée comme un processus de vigilance collective, est un concept générique, comprenant les activités de surveillance, de veille ou encore d'intelligence (économique, stratégique, compétitive, etc.).<p>Sa conceptualisation, construite par une analyse de définitions des principaux termes qui lui sont associés, a mis en évidence l'importance de son rôle de médiateur d'information dans l'organisation, qui s'articule autour des étapes récurrentes de collecte, de traitement et de distribution de l'information. Le recours au concept d'organizational learning a permis de dépasser les approches purement mécaniques, mettant en évidence sa capacité à créer du de sens. <p><p>C'est au coeur de cette médiation, à l'intersection de la collecte et du traitement de l'information, qu'intervient un autre type de sensemaking: l'évaluation de la qualité de l'information. Elle est envisagée comme un processus de réduction de l'ambiguïté, dont l'action permet la sélection (ou non) d'une source ou d'une information dans la suite de la médiation. La qualité de l'information est abordée sous l'angle de l'information seeking qui permet de faire la lumière sur cette création de sens. Elle est généralement traitée dans la littérature en termes de pertinence, de crédibilité ou de fitness for use. Des études de terrain et des contributions émanant des praticiens ont permis de mettre en évidence les attributs et les critères de la qualité qui peuvent être mobilisés pour construire un jugement de qualité des sources en ligne. Dans le cadre de l'enquête de terrain, une check-list composée de 72 critères renvoyant à 9 attributs a été choisie comme cadre de référence pour l'observer: les objectifs de la source, sa couverture, son autorité et sa réputation, sa précision, sa mise à jour, son accessibilité, sa présentation, sa facilité d'utilisation et sa comparaison avec d'autres sources. <p> <p>Pour pouvoir mettre en évidence de manière concrète les aspects du paysage informationnel en transformation, une analyse des définitions et descriptions du Web 2.0 a permis de construire une description morphologique qui reprend ses caractéristiques principales. Il peut ainsi être considéré comme un ensemble d'outils, de pratiques et de tendances. Les outils permettent d'identifier cinq types de sources qui lui sont spécifiques: les blogs, les wikis, les podcasts, les plates-formes de partage de fichiers et les sites de réseaux sociaux. Ces types de sources sont éclairés dans cette recherche sous l'angle du concept de genre et, ensemble, sont positionnés en tant que répertoire, qu'il est nécessaire de comparer avec celui des genres "classiques" de sources en ligne. <p><p>L'examen du changement des stratégies d'évaluation de la qualité de l'information a été concrétisé à l'aide d'un questionnaire administré par téléphone, qui visait à croiser les critères de qualité de la liste choisie comme référence avec les cinq genres typiques du Web 2.0. C'est l'importance relative accordée à un critère pour évaluer une information qui a été choisie comme indicateur à observer. Les répondants ont été invités à indiquer s'ils considèrent que l'importance des critères "change" ("≠") ou "ne change pas" ("=") quand ils évaluent un de ces genres, en comparaison de celle qu'ils accorderaient à un genre classique de source en ligne. En cas de changement, le questionnaire a prévu la possibilité de noter s'il s'agissait d'une hausse (">") ou d'une baisse ("<") d'importance. Pour compléter ce dispositif, 14 entretiens semi-dirigés en face à face ont été menés avec des répondants à ce questionnaire, de manière à pouvoir saisir les éléments explicatifs de leurs réponses. <p><p>L'analyse des données a montré qu'une majorité des réponses (57% de "=") indiquent que l'importance des critères d'évaluation ne change pas quand une information est mise à disposition par l'intermédiaire d'un genre Web 2.0, plutôt que par celui d'un genre classique de source en ligne. Pourtant, cela implique que 43% des critères changent d'une manière ou d'une autre. C'est sur base de ce constat que cette recherche soutient l'existence d'un changement perçu qui, s'il ne remet pas fondamentalement en cause le processus de jugement de qualité, suscite néanmoins une adaptation de ce dernier par les professionnels de la GI interrogés. La lecture des données à l'aide de variables secondaires a montré notamment une forte disparité des distributions de réponses entre les répondants; ce qui plaide en faveur du caractère subjectif, personnel et dépendant du contexte du processus d'évaluation. De même, elle a permis de déterminer l'existence de deux groupes d'attributs qui se différencient par le fait que le premier comporte des attributs liés au contenu de la source (les objectifs, l'autorité, la précision, etc.) alors que le second est composé d'attributs liés à la forme (présentation, facilité, etc.).<p><p>Les entretiens de la seconde phase de l'enquête ont permis d'affiner l'analyse en éclairant, d'une part, sur la nature du changement et, d'autre part, sur les raisons de celui-ci. Les répondants ont indiqué que fondamentalement le processus d'évaluation est identique quel que soit le répertoire envisagé. Ils admettent toutefois que les genres typiques du Web 2.0 peuvent être à l'origine d'une perte de repères. Elle s'explique par la perception d'une familiarité moins grande à l'égard des sources et se traduit par une perte de la confiance qu'ils accordent aux sources et à leur jugement. Le changement perçu se manifeste donc par une hausse d'importance de certains attributs, qui aide les répondants à restaurer cette confiance. L'élément explicatif de ce changement peut être considéré comme un flou dans les modalités de création de contenu. Ce flou comporte trois dimensions: la façon dont est créé le contenu (How?), l'identité de celui qui le crée (Who?) et sa nature (What?). Ces dimensions peuvent être synthétisées par l'idée selon laquelle n'importe qui peut publier n'importe quoi. <p><p>Les entretiens approfondis confirment que les groupes d'attributs liés au contenu d'une part, et ceux liés à la forme d'autre part, sont bien des éléments explicatifs de la manière dont se manifeste le changement.  Dans le cas des attributs qui augmentent d'importance, les raisons invoquées renvoient au fait que la facilité de création de contenu à l'aide de ces genres permet à "n'importe qui" de créer du contenu. C'est pour cette raison que l'autorité et les objectifs de la source peuvent faire l'objet d'une attention plus forte que sur les genres classiques de sources en ligne. Le fait que n'importe qui puisse publier "n'importe quoi" renvoie à la nature du contenu créé par ces genres. Il est considéré comme dynamique, personnel, indicateur de tendances, source de signaux faibles, subjectifs, etc. Cela pousse les répondants qui sont sensibles à ces questions à remettre plus sérieusement en cause la précision par exemple. C'est aussi en raison de la facilité de création de contenu, et du fait que les outils du Web 2.0 réduisent la responsabilité de l'auteur dans la qualité de la conception de sa source, que des attributs de forme, quand ils changent d'importance, voient leur niveau baisser. Le second groupe a été signalé par les répondants comme étant davantage des indicateurs de sérieux et des arbitres dans leur processus d'évaluation.<p><p>Que ce soit pour discuter des divergences de vue entre répondants ou pour déterminer les spécificités des genres, il apparaît qu'un aspect capital de la qualité de l'information tient à sa capacité à répondre aux besoins du moment, le fitness for use. Cette notion est intimement liée à celle de pertinence et toutes deux ont été résolument présentées comme déterminantes dans les stratégies, à la fois du point de vue du jugement d'une information ponctuelle, que dans l'attitude face à aux sources en général. Dans tous les cas, c'est d'abord les besoins d'information qui guident le choix. Toutes observations permettent d'apporter une réponse claire, riche et nuancée à la question de recherche. / Doctorat en Information et communication / info:eu-repo/semantics/nonPublished

Page generated in 0.0736 seconds