Spelling suggestions: "subject:"evidencebased dentistry/health care"" "subject:"evidencedbased dentistry/health care""
1 |
Compréhension de texte scientifique en orthodontie par traitement automatique de langage naturelRousseau, Maxime 09 1900 (has links)
Dans le domaine des soins de santé, la pratique basée sur les preuves s’est imposée comme la référence prédominante pour la prestation de soins de qualité. Cette approche se caractérise par l’utilisation des données scientifiques pour éclairer les décisions cliniques. Cependant, la croissance exponentielle du volume de littérature publiée dans le domaine de la dentisterie présente un défi en ce qui concerne l’évaluation efficace des données. Les récents progrès dans le domaine de l’intelligence artificielle se sont révélés être une avenue prometteuse pour relever ce défi. Parmi ces avancées, les modèles de langage (ML) se distinguent comme des outils ayant le potentiel d’aider les cliniciens et les chercheurs dans l’évaluation critique des données scientifiques, notamment dans un mécanisme de questions-réponses. Afin d’évaluer les capacités actuelles des ML à comprendre les requêtes des questions et à extraire des informations pertinentes à partir de textes scientifiques, nous introduisons OrthodonticQA (OQA). OQA marque une initiative pionnière, soit le premier jeu de données de questions- réponses propre au domaine de la dentisterie. Il est mis à la disposition du public sous une licence permissive. Cette étude a sélectionné une série de modèles de type Transformer dans le but de définir des références de performance pour OQA. Nous décrivons le cadre global employé à la fois dans la création et la curation de ce nouveau jeu de données. Notamment, l’incorporation des informations PICO (Population, Intervention, Comparison, Outcome) et de l’approche basée sur des patrons (template) pour la formulation de questions, soulignant ainsi leur applicabilité à travers divers sous-domaines de la dentisterie. Suite à leur affinage sur OQA, les ML ont été évalués sur un petit échantillon de test. Notre meilleur modèle atteint un score F1 moyen de 77,61 avec une déviation standard (DS) de 0,26 et un score d’évaluation humaine de 100/114 (87,72 %). De plus, lors de l’analyse des performances dans les sous-domaines de la discipline orthodontique, des variations intrigantes ont été observées. Cette étude met en évidence le potentiel significatif des ML dans ce domaine, mais confronte également les limites et les défis existants, notamment la nécessité impérative de normes de référence pour évaluer de manière exhaustive les capacités des ML dans le domaine spécialisé de la dentisterie. / In the realm of healthcare, evidence-based practice has emerged as the prevailing benchmark
for delivering quality care. This approach is characterized by its reliance on the use of the
most robust scientific data to inform clinical decisions. However, the exponential growth
in the volume of published literature in the field of dentistry presents a challenge when
it comes to the efficient assessment of evidence. Recent strides in the field of artificial
intelligence have emerged as a promising avenue to address this challenge. Among these
advancements, language models (LMs) stand out as tools with the potential to aid clinicians
and researchers in the critical evaluation of scientific data. To gauge the present capabilities
of LMs in comprehending queries and extracting pertinent information from scientific texts,
we introduce OrthodonticQA (OQA). OQA marks a pioneering initiative, serving as the
inaugural question-answering dataset in the domain of dentistry. It is made accessible to
the public under a permissive license. This study selected a series of Transformer-based
models aimed to delineate performance benchmarks for OQA. We describe the overarching
framework employed both in the creation and curation of this novel dataset. It offers
a comprehensive examination of the incorporation of PICO (Population, Intervention,
Comparison, Outcome) information and a template-based approach to the formulation of
questions, thereby underscoring their applicability across diverse subfields within dentistry.
Through the application of fine-tuning methodologies, the LMs underwent evaluation on
a small designated test set. Our best model achieves an average F1 score of 77.61 with
a standard deviation (SD) of 0.26 and a human evaluation score of 100/114 (87.72%).
Furthermore, when performance was analyzed across subdomains within the orthodontic
discipline, intriguing variations emerged, underscoring the dynamic nature of LM performance across different subject areas. This study not only highlights the significant potential
of LMs in this domain but also confronts the existing limitations and challenges, notably
the imperative need for benchmark standards to comprehensively assess the capabilities of
LMs within the specialized field of dentistry.
|
Page generated in 0.137 seconds