Spelling suggestions: "subject:"actualité"" "subject:"factualité""
1 |
Positionnalité et idéologisation de l’identité : la construction politique de la connaissance à l’ère post-véritéGratiollet, Théo 12 1900 (has links)
Les identités et les connaissances qui traversent les relations entre les individus soulèvent les mêmes enjeux d’appréhension, de normalisation et de reproduction des comportements et des discours qui font le monde social. Elles répondent toutefois à des logiques différentes : les identités appuient les différences qui naissent de perceptions subjectives et de confrontations d’intérêts, alors que les connaissances sont portées par des idéaux d’universalité et strictement tenues par les réalités objectives. À partir d’une revue de la littérature et faisant état de la question, ce mémoire s’intéresse à la perméabilité croissante qui s’établit entre identités et savoirs par le recours à un positionnement essentialisé, que nous qualifions de « positionnalité ». Notamment, nous interrogeons ses formes idéologiques contemporaines afin de comprendre quelles sont les origines de ces positionnements identitaires essentialisés et leurs conséquences pour l’élaboration et la médiation du savoir. Nous établissons que la positionnalité est le fruit d’un abord constructiviste des régimes de vérité et de pouvoir, et qu’elle s’appuie sur des lectures partisanes des héritages de la théorie critique. Nous mettons aussi en exergue l’environnement politique façonné par « l’ère post-vérité », caractérisé par une dépréciation de la valeur des faits et la contestation des autorités épistémiques traditionnelles. Enfin, nous avançons que le développement de la positionnalité, précipité par l’ère post-vérité, entretient une dynamique néolibérale d’appropriation ou de privatisation des savoirs pris en tant que biens communs. Les thèmes abordés dans ce mémoire nous conduisent à penser que l’essentialisation des positionnements identitaires a dépassé le cadre strictement épistémologique, et sert désormais une accumulation et une appropriation exclusive des moyens de la connaissance. / Identities and knowledge permeate relationships between individuals, raising the same issues of comprehension, normalization and reproduction of behaviors and discourse that constitute the social world. However, they follow different logics: identities reproduce the differences that arise from subjective perceptions and confrontations of interests, while knowledge rests on ideals of universality and of objective reality. Through an extensive review of the literature, this thesis examines the growing permeability between identities and knowledge that has arisen from a recent, essentialized form of positioning we call "positionality". In particular, we question this contemporary ideological form in order to understand the origins of such essentialized identity positions as well as their consequences for both the development and mediation of knowledge. We establish that positionality relies on a constructivist approach to truth and power regimes as well as on partisan readings of critical theory’s legacies. We also highlight the political environment of the “post-truth era,” characterized by a devaluation of facts and the challenging of traditional epistemic authorities. Finally, we argue that the development of positionality, hastened by the post-truth era, reinforces neoliberal appropriation, or privatization, of knowledge heretofore understood as a public good. The topics addressed in this thesis lead us to think that the essentialization of identity positioning has moved from a strictly epistemological question to one concerning the accumulation and exclusive ownership of the means of knowledge production.
|
2 |
Enhancing factuality and coverage in summarization via referencing key extracted contentBelanger Albarran, Georges 04 1900 (has links)
Les résumés abstraits de dialogues permettent aux gens de comprendre rapidement les
aspects clés des conversations dont la synthèse nécessiterait autrement des efforts considérables.
Malgré les progrès considérables réalisés par les grands modèles de langage
(LLM), même les modèles les plus puissants souffrent encore d’hallucinations lorsqu’ils
génèrent des résumés abstraits et ne parviennent pas à couvrir des aspects importants
du contenu sous-jacent. En outre, la vérification humaine de la factualité d’un résumé
abstrait peut nécessiter un effort considérable. L’un des moyens de minimiser la charge
cognitive liée à la vérification de la qualité d’un résumé consiste à faire en sorte que
le résumé cite des phrases dans le contenu original. Cependant, il est rare que les ensembles
de données de résumés abstraits citent des passages de texte du contenu original.
Même les meilleurs LLM ont du mal à effectuer un résumé basé sur des citations.
Pour résoudre ce problème, nous créons l’ensemble de données Tweetsumm++,
composé de résumés abstraits soutenus par des citations de dialogues entre clients et
entreprises sur Twitter. Nous examinons également une méthode d’entraînement et de
formulation de problèmes multitâches qui apprend à effectuer conjointement un résumé
extractif et un résumé abstractif faisant référence au contenu extrait. Dans notre configuration,
le modèle est également chargé d’étiqueter les phrases clés dans des catégories
telles que ISSUE, RESOLUTION,WORKAROUND et autres, qui représentent les principaux
éléments clés d’un dialogue. Nous explorons l’impact de la mise au point d’un
LLM Mixtral open-source pour effectuer un résumé abstractif basé sur des citations et
une catégorisation des phrases clés. En outre, étant donné que l’acquisition d’étiquettes
pour un tel ensemble de données est coûteuse, nous explorons une nouvelle méthode
d’auto-étiquetage basée sur le feedback de l’IA qui bénéficie du format de résumé basé
sur les citations et peut améliorer les modèles en ce qui concerne la qualité des citations. / Abstractive summaries of dialogues allow people to quickly understand key aspects
of conversations that might otherwise take considerable effort to synthesize. Despite the
tremendous progress made by large language models (LLMs), even the most powerful
models still suffer from hallucinations when generating abstractive summaries and fail
to cover important aspects of the underlying content. Furthermore, human verification
of the factuality of an abstractive summary can entail significant effort. One way to
minimize the cognitive load of quality checking an abstractive summary is to have the
summary cite sentences within the original content. However, it is uncommon for abstractive
summarization datasets to cite passages of text from the original content. Even
the best LLMs struggle to perform citation-backed summarization. To address this issue,
we create the Tweetsumm++ dataset composed of citation-backed abstractive summaries
of dialogues between customers and companies on Twitter. We also examine a multi-task
problem formulation and training method that learns to jointly perform extractive, and
abstractive summarization which reference the extracted content. In our setup, the model
is also tasked with tagging key sentences into categories such as ISSUE, RESOLUTION,
WORKAROUND, and others that represent the main key elements of a dialogue. We explore
the impact of fine-tuning an open-source Mixtral LLM to perform citation-backed
abstractive summarization and key sentence categorization. Further, since acquiring labels
for such a dataset is costly, we explore a novel self-labeling method based on AI
feedback that benefits from the citation-based summarization format and can improve
models with respect to citation quality.
|
Page generated in 0.0344 seconds