The rapid expansion of artificial intelligence (AI) in modern society, exemplified by systems like ChatGPT and Stable Diffusion, has given rise to significant ethical considerations. These systems, increasingly prevalent in diverse sectors such as mental health treatment, as in Koko, and art creation, necessitate a careful examination of their alignment with human values. This thesis addresses the pressing need for ethical evaluation of multimodal AI systems - those capable of processing and responding to both text and image inputs.
Our research is twofold: initially, we focus on developing a multimodal ethical database through interactive human feedback. Participants assess various examples, determining their ethical appropriateness. This process culminates in a dataset that serves as a foundation for the subsequent phase - designing and testing algorithms capable of autonomously evaluating the morality of AI responses. We explore the effectiveness of two models in this context: a RoBERTa-large classifier and a multilayer perceptron classifier.
Furthermore, this thesis highlights significant limitations in the existing multimodal AI systems studied. We propose alternative models, offering a comparative analysis mainly in terms of performance. This comprehensive study not only contributes to the field of AI alignment but also proposes methodologies for enhancing the moral framework within which these influential technologies operate. / L'expansion rapide de l'intelligence artificielle (IA) dans la société moderne, illustrée par des systèmes tels que ChatGPT et Stable Diffusion, a suscité d'importantes considérations éthiques. Ces systèmes, de plus en plus présents dans divers secteurs tels que le traitement de la santé mentale, avec Koko, et la création artistique, nécessitent un examen attentif de leur alignement avec les valeurs humaines. Ce mémoire aborde le besoin pressant d'une évaluation éthique des systèmes d'IA multimodaux - capables de traiter et de répondre à la fois aux entrées textuelles et visuelles.
Notre recherche est double : initialement, nous nous concentrons sur le développement d'une base de données éthiques multimodales par le biais de retours interactifs d'utilisateurs. Les participants évaluent divers exemples pour déterminer leur éthique. Ce processus aboutit à un ensemble de données qui sert de fondement à la phase suivante - la conception et le test d'algorithmes capables d'évaluer de manière autonome la moralité des réponses de l'IA. Nous explorons l'efficacité de deux modèles dans ce contexte : un classificateur RoBERTa-large et un perceptron multicouche.
De plus, ce mémoire met en évidence des limitations significatives dans les systèmes d'IA multimodaux existants étudiés. Nous proposons des modèles alternatifs, offrant une analyse comparative en termes de performance. Cette étude complète contribue non seulement au domaine de l'alignement de l'IA, mais propose également des méthodologies pour améliorer le cadre moral dans lequel ces technologies influentes opèrent.
Identifer | oai:union.ndltd.org:umontreal.ca/oai:papyrus.bib.umontreal.ca:1866/32832 |
Date | 10 1900 |
Creators | Roger, Alexis |
Contributors | Aïmeur, Esma, Rish, Irina |
Source Sets | Université de Montréal |
Language | English |
Detected Language | French |
Type | thesis, thèse |
Format | application/pdf |
Page generated in 0.0146 seconds