Le succès des modèles d’apprentissage en profondeur et leur adoption rapide dans de nombreux
domaines d’application ont soulevé d’importantes questions sur l’équité de ces modèles lorsqu’ils
sont déployés dans le monde réel. Des études récentes ont mis en évidence les biais encodés
par les algorithmes d’apprentissage des représentations et ont remis en cause la fiabilité de telles
approches pour prendre des décisions. En conséquence, il existe un intérêt croissant pour la
compréhension des sources de biais dans l’apprentissage des algorithmes et le développement de
stratégies d’atténuation des biais. L’objectif des algorithmes d’atténuation des biais est d’atténuer
l’influence des caractéristiques des données sensibles sur les décisions d’éligibilité prises. Les
caractéristiques sensibles sont des caractéristiques privées et protégées d’un ensemble de données
telles que le sexe ou la race, qui ne devraient pas affecter les décisions de sortie d’éligibilité, c’està-dire les critères qui rendent un individu qualifié ou non qualifié pour une tâche donnée, comme
l’octroi de prêts ou l’embauche. Les modèles d’atténuation des biais visent à prendre des décisions
d’éligibilité sur des échantillons d’ensembles de données sans biais envers les attributs sensibles
des données d’entrée. La difficulté des tâches d’atténuation des biais est souvent déterminée par
la distribution de l’ensemble de données, qui à son tour est fonction du déséquilibre potentiel de
l’étiquette et des caractéristiques, de la corrélation des caractéristiques potentiellement sensibles
avec d’autres caractéristiques des données, du décalage de la distribution de l’apprentissage vers
le phase de développement, etc. Sans l’évaluation des modèles d’atténuation des biais dans
diverses configurations difficiles, leurs mérites restent incertains. Par conséquent, une analyse
systématique qui comparerait différentes approches d’atténuation des biais sous la perspective de
différentes mesures d’équité pour assurer la réplication des résultats conclus est nécessaire. À
cette fin, nous proposons un cadre unifié pour comparer les approches d’atténuation des biais.
Nous évaluons différentes méthodes d’équité formées avec des réseaux de neurones profonds sur
un ensemble de données synthétiques commun et un ensemble de données du monde réel pour
obtenir de meilleures informations sur le fonctionnement de ces méthodes. En particulier, nous
formons environ 3000 modèles différents dans diverses configurations, y compris des configurations
de données déséquilibrées et corrélées, pour vérifier les limites des modèles actuels et mieux
comprendre dans quelles configurations ils sont sujets à des défaillances. Nos résultats montrent que
le biais des modèles augmente à mesure que les ensembles de données deviennent plus déséquilibrés
ou que les attributs des ensembles de données deviennent plus corrélés, le niveau de dominance
des caractéristiques des ensembles de données sensibles corrélées a un impact sur le biais, et
les informations sensibles restent dans la représentation latente même lorsque des algorithmes
d’atténuation des biais sont appliqués. Résumant nos contributions - nous présentons un ensemble
de données, proposons diverses configurations d’évaluation difficiles et évaluons rigoureusement
les récents algorithmes prometteurs d’atténuation des biais dans un cadre commun et publions
publiquement cette référence, en espérant que la communauté des chercheurs le considérerait
comme un point d’entrée commun pour un apprentissage en profondeur équitable. / The rapid use and success of deep learning models in various application domains have raised
significant challenges about the fairness of these models when used in the real world. Recent
research has shown the biases incorporated within representation learning algorithms, raising
doubts about the dependability of such decision-making systems. As a result, there is a growing
interest in identifying the sources of bias in learning algorithms and developing bias-mitigation
techniques. The bias-mitigation algorithms aim to reduce the impact of sensitive data aspects on
eligibility choices. Sensitive features are private and protected features of a dataset, such as gender
of the person or race, that should not influence output eligibility decisions, i.e., the criteria that
determine whether or not an individual is qualified for a particular activity, such as lending or
hiring. Bias mitigation models are designed to make eligibility choices on dataset samples without
bias toward sensitive input data properties. The dataset distribution, which is a function of the
potential label and feature imbalance, the correlation of potentially sensitive features with other
features in the data, the distribution shift from training to the development phase, and other factors,
determines the difficulty of bias-mitigation tasks. Without evaluating bias-mitigation models in
various challenging setups, the merits of deep learning approaches to these tasks remain unclear.
As a result, a systematic analysis is required to compare different bias-mitigation procedures using
various fairness criteria to ensure that the final results are replicated. In order to do so, this thesis
offers a single paradigm for comparing bias-mitigation methods. To better understand how these
methods work, we compare alternative fairness algorithms trained with deep neural networks on a
common synthetic dataset and a real-world dataset. We train around 3000 distinct models in various
setups, including imbalanced and correlated data configurations, to validate the present models’
limits and better understand which setups are prone to failure. Our findings show that as datasets
become more imbalanced or dataset attributes become more correlated, model bias increases, the
dominance of correlated sensitive dataset features influence bias, and sensitive data remains in the
latent representation even after bias-mitigation algorithms are applied. In summary, we present a
dataset, propose multiple challenging assessment scenarios, rigorously analyse recent promising
bias-mitigation techniques in a common framework, and openly disclose this benchmark as an entry
point for fair deep learning.
Identifer | oai:union.ndltd.org:umontreal.ca/oai:papyrus.bib.umontreal.ca:1866/27490 |
Date | 07 1900 |
Creators | Reddy, Charan |
Contributors | Anbil Parthipan, Sarath Chandar |
Source Sets | Université de Montréal |
Language | English |
Detected Language | French |
Type | thesis, thèse |
Format | application/pdf |
Page generated in 0.003 seconds