mobile icon
Projekt

Egozentrische Verzerrungen treffen auf voreingenommene Algorithmen

ArbeitsgruppeAlltagsmedien
Laufzeit06/2023-06/2026
FörderungDeutsche Forschungsgemeinschaft (DFG)
Projektbeschreibung

Unterschiedliche Personen bevorzugen unterschiedliche Auffassungen von Fairness. Im Rahmen dieses Dissertationsprojekts wird daher untersucht, wie sich egozentrische Vorurteile auf die Beurteilung der Fairness von Algorithmen auswirken - ein Thema, das in der Diskussion über KI-Diskriminierungsfälle oft unbeachtet bleibt. Durch das Verständnis des Einflusses von Vorurteilen auf Fairnessbewertungen bietet dieses Projekt Einblicke in die Verbesserung der KI-Entscheidungsfindung in verschiedenen Bereichen.


Fairness ist ein vielschichtiges Konstrukt mit verschiedenen Definitionen, die im Allgemeinen durch den Bereich, in dem sie untersucht werden, geprägt sind. Da die wahrgenommene Fairness ein entscheidendes Ziel in Bereichen wie Bildung, Beschäftigung oder Bankkrediten ist, ist es besonders wichtig, sie zu untersuchen, wenn diese Bereiche durch KI-gestützte Entscheidungssysteme verändert werden. Das Gegenteil von fairer Entscheidungsfindung kann als diskriminierende Entscheidungsfindung verstanden werden, die üblicherweise in direktem Widerspruch zu den lokalen Antidiskriminierungsgesetzen in den meisten Ländern steht. Auch wenn Unternehmen und Institutionen versuchen, kategorische Gruppendiskriminierung durch ihre KI-Anwendungen zu verhindern, werden immer wieder Fälle veröffentlicht, in denen solche Diskriminierung auftritt. Dennoch scheint das Thema der Gruppendiskriminierung durch KI bei den Teilnehmenden typischer Algorithmus-Akzeptanzstudien entweder nicht bekannt oder nicht sehr präsent zu sein.


Die Sensibilisierung für dieses Thema ist daher entscheidend, um Veränderungen zu bewirken. Allerdings könnten verschiedene demografische Gruppen die KI-Entscheidungen als weniger diskriminierend wahrnehmen, weil sie glauben, dass sie davon nicht negativ betroffen sind. Dies wirft die Frage auf, inwieweit egozentrische Vorurteile auch die Entwicklung und den Einsatz von KI-gestützten Entscheidungssystemen beeinflussen.


Unser Ziel ist es daher, in einer Reihe von Experimenten das häufig unterschätzte Phänomen der Gruppendiskriminierung durch KI in der Allgemeinbevölkerung aufzudecken. Wir wollen aufzeigen, dass egozentrische Vorurteile, wie die Tendenz, Ergebnisse zu bevorzugen, die für einen selbst vorteilhaft sind, die Wahrnehmung von gruppendiskriminierenden Entscheidungen verzerren können. Außerdem wollen wir verstehen, wie sich diese Vorurteile auf die Präferenzen bei der Entwicklung von KI-Lösungen zur Bekämpfung von Gruppendiskriminierung auswirken.


Folglich zielt dieses Projekt darauf ab, die bereichsübergreifenden Auswirkungen von Fairness in der KI umfassend zu verstehen, mit dem letztendlichen Ziel, ethischere und gerechtere technologische Fortschritte zu fördern.

Kontakt

Nico Ehrhardt Nico Ehrhardt
Tel.: +49 7071 979-312

Projektteam

Prof. Dr. Sonja Utz