Künstliche Intelligenz und selbst-lernende Systeme, die ihr Verhalten aufgrund
vergangener Entscheidungen und historischer Daten adaptieren, spielen eine im-
mer größer werdende Rollen in unserem Alltag. Wir sind umgeben von einer
großen Zahl algorithmischer Entscheidungshilfen, sowie einer stetig wachsenden
Zahl algorithmischer Entscheidungssysteme. Rankings und sortierte Listen von
Suchergebnissen stellen dabei das wesentliche Instrument unserer Onlinesuche nach
Inhalten, Produkten, Freizeitaktivitäten und relevanten Personen dar. Aus diesem
Grund bestimmt die Reihenfolge der Suchergebnisse nicht nur die Zufriedenheit der
Suchenden, sondern auch die Chancen der Sortierten auf Bildung, ökonomischen
und sogar sozialen Erfolg. Wissenschaft und Politik sorgen sich aus diesem Grund
mehr und mehr um systematische Diskriminierung und Bias durch selbst-lernende
Systeme.
Um der Diskriminierung im Kontext von Rankings und sortierten Suchergeb-
nissen Herr zu werden, sind folgende drei Probleme zu addressieren: Zunächst
müssen wir die ethischen Eigenschaften und moralischen Ziele verschiedener Sit-
uationen erarbeiten, in denen Rankings eingesetzt werden. Diese sollen mit den
ethischen Werten der Algorithmen übereinstimmen, die zur Vermeidung von diskri-
minierenden Rankings Anwendung finden. Zweitens ist es notwendig, ethische
Wertesysteme in Mathematik und Algorithmen zu übersetzen, um sämtliche moralis-
chen Ziele bedienen zu können. Drittens sollten diese Methoden einem breiten
Publikum zugänglich sein, das sowohl Programmierer:innen, als auch Jurist:innen
und Politiker:innen umfasst. / Artificial intelligence and adaptive systems, that learn patterns from past behavior
and historic data, play an increasing role in our day-to-day lives. We are surrounded
by a vast amount of algorithmic decision aids, and more and more by algorithmic
decision making systems, too. As a subcategory, ranked search results have become
the main mechanism, by which we find content, products, places, and people online.
Thus their ordering contributes not only to the satisfaction of the searcher, but also
to career and business opportunities, educational placement, and even social success
of those being ranked. Therefore researchers have become increasingly concerned
with systematic biases and discrimination in data-driven ranking models.
To address the problem of discrimination and fairness in the context of rank-
ings, three main problems have to be solved: First, we have to understand the
philosophical properties of different ranking situations and all important fairness
definitions to be able to decide which method would be the most appropriate for a
given context. Second, we have to make sure that, for any fairness requirement in
a ranking context, a formal definition that meets such requirements exists. More
concretely, if a ranking context, for example, requires group fairness to be met, we
need an actual definition for group fairness in rankings in the first place. Third,
the methods together with their underlying fairness concepts and properties need
to be available to a wide range of audiences, from programmers, to policy makers
and politicians.
Identifer | oai:union.ndltd.org:HUMBOLT/oai:edoc.hu-berlin.de:18452/25219 |
Date | 26 April 2022 |
Creators | Zehlike, Meike |
Contributors | Leser, Ulf, Castillo Ocaranza, Carlos Alberto Alejandro, Gummadi, Krishna Phani |
Publisher | Humboldt-Universität zu Berlin |
Source Sets | Humboldt University of Berlin |
Language | English |
Detected Language | English |
Type | doctoralThesis, doc-type:doctoralThesis |
Format | application/pdf |
Rights | (CC BY 4.0) Attribution 4.0 International, https://creativecommons.org/licenses/by/4.0/ |
Relation | 10.1145/3132847.3132938, 10.1145/3366424.3380048, 10.48550/arXiv.2103.14000, 10.1145/3366424.3383534, 10.1016/j.ipm.2021.102707, 10.48550/arXiv.2012.12795 |
Page generated in 0.003 seconds