Return to search

Alzheimer prediction from connected speech extracts : assessment of generalisation to new data

co-direction : Simona Brambati / Plusieurs avancées utilisant le discours obtenu de la tâche de description d’image ont été
réalisées dans la détection de la maladie d’Alzheimer (AD). L’utilisation de caractéristiques
linguistiques et acoustiques sélectionnées manuellement ainsi que l’utilisation de méthodologies
d’apprentissage profond ont montré des résultats très prometteurs dans la classification
des patients avec AD. Dans ce mémoire, nous comparons les deux méthodologies sur la
scène Cookie Theft du Boston Aphasia Examination en entrainant des modèles avec des
caractéristiques sélectionnées à partir des extraits textuels et audio ainsi que sur un modèle
d’apprentissage profond BERT. Nos modèles sont entrainés sur l’ensemble de données
ADReSS challenge plus récent et évaluées sur l’ensemble de données CCNA et vice versa
pour mesurer la généralisation des modèles sur des exemples jamais vus dans des ensembles
de données différents. Une évaluation détaillée de l’interprétabilité des modèles est effectuée
pour déterminer si les modèles ont bien appris les représentations reliées à la maladie.
Nous observons que les modèles ne performent pas bien lorsqu’ils sont évalués sur différents
ensembles de données provenant du même domaine. Les représentations apprises des
modèles entrainés sur les deux ensembles de données sont très différentes, ce qui pourrait
expliquer le bas niveau de performance durant l’étape d’évaluation. Même si nous démontrons
l’importance des caractéristiques linguistiques sur la classification des AD vs contrôle,
nous observons que le meilleur modèle est BERT avec un niveau d’exactitude de 62.6% sur
les données ADReSS challenge et 66.7% sur les données CCNA. / Many advances have been made in the early diagnosis of Alzheimer’s Disease (AD) using
connected speech elicited from a picture description task. The use of hand built linguistic
and acoustic features as well as Deep Learning approaches have shown promising results in
the classification of AD patients. In this research, we compare both approaches on the Cookie
Theft scene from the Boston Aphasia Examination with models trained with features derived
from the text and audio extracts as well as a Deep Learning approach using BERT. We train
our models on the newer ADReSS challenge dataset and evaluate on the CCNA dataset and
vice versa in order to asses the generalisation of the trained model on unseen examples from
a different dataset. A thorough evaluation of the interpretability of the models is performed
to see how well each of the models learn the representations related to the disease. It is
observed that the models do not perform well when evaluated on a different dataset from
the same domain. The selected and learned representations from the models trained on
either dataset are very different and may explain the low performance in the evaluation step.
While we demonstrate the importance of linguistic features in the classification of AD vs
non-AD, we find the best overall model is BERT which achieves a test accuracy of 62.6% on
the ADRess challenge dataset and 66.7% on the CCNA dataset.

Identiferoai:union.ndltd.org:umontreal.ca/oai:papyrus.bib.umontreal.ca:1866/26066
Date09 1900
CreatorsChafouleas, Geneviève
ContributorsLanglais, Philippe, Brambati, Simona Maria
Source SetsUniversité de Montréal
LanguageEnglish
Detected LanguageFrench
Typethesis, thèse
Formatapplication/pdf et application/octet-stream

Page generated in 0.003 seconds