Skip to main content

Wenn man an den Begriff Künstliche Intelligenz denkt, dann löst das gewisse Assoziationen aus. Vielleicht denkt man dabei an Roboter, Automatisierung oder Sci-Fi-Filme wie „Terminator“. Nicht immer sind unsere Assoziationen positiv. Welche Gefühle wir gegenüber bestimmten Themen, Aufgaben oder Personen haben, beeinflusst auch, wie wir über diese sprechen und schreiben. Selbst Wissenschaftler sind bei Studien nicht immer gänzlich unvoreingenommen. Das kann einerseits eine Stärke sein, sich andererseits aber auch als Herausforderung entpuppen – etwa beim Training von KI auf der Basis menschengemachter Daten. Denn: Nicht nur unser Wissen, sondern auch unsere Vorurteile spiegeln sich in der KI wider.

Mehr spannende Infos zu Künstlicher Intelligenz findest du am Ende dieses Beitrags.

Rassistische KI – Hier haben Vorurteile konkrete Folgen

KI soll besser sein als wir – keine Emotionen, keine Voreingenommenheit. Dass das nicht immer klappt, zeigen mehrere Fälle, in denen KIs Menschen mit Migrationshintergrund, People of Color sowie Frauen und andere marginalisierte Gruppen benachteiligen. Dr. Ashwini K.P., Sonderberichterstatterin für den UN-Menschenrechtsrat, warnte bereits im vergangenen Jahr vor den Gefahren, die aus den in die KI eingeflossenen Vorurteilen entstehen könnten.

Ein klares Beispiel liefert der Einsatz von KI in der Polizei – vor allem in den USA. Auf Grundlage der polizeilichen Datenbank sollen KI-Systeme so zum Beispiel vorhersagen können, wer wo und wann wahrscheinlich in Zukunft ein Verbrechen begeht. Diese Methode wird auch ‚Predictive Policing‘ genannt. „Predictive Policing kann das historische Overpolicing in Gemeinden entlang rassischer und ethnischer Grenzen verschärfen“, erklärt Ashwini K.P. „Wenn Polizeibeamte in ohnehin stark überwachten Stadtvierteln neue Straftaten registrieren, entsteht eine Rückkopplungsschleife, durch die der Algorithmus zunehmend voreingenommene Vorhersagen für diese Stadtviertel generiert. Kurz gesagt: Ein Bias in der Vergangenheit führt zu einem Bias in der Zukunft.“

Kein Job wegen unpassender Körpersprache

Andererseits können auch Variabeln wie der sozioökonomische Hintergrund, Bildungsniveau oder Wohnort als Ersatz für die ethnische Zugehörigkeit dienen. Durch sie werden historische Vorurteile weiter perpetuiert. Diese Angaben können auch die Chancen auf Arbeit schmälern, wie Berichte über KI-Tools, die immer häufiger in Bewerbungsprozessen zum Einsatz kommen, zeigen. Die britische Rundfunkanstalt BBC berichtete in diesem Zusammenhang, dass etwa das KI-Screening-Programm HireVue auch eine Gesichts- und Körperspracheanalyse bei Bewerbern durchführte.

In einem besonders bekannten Fall wurde die Make-Up-Künstlerin Anthea Mairoundhiou, die während der Pandemie von ihrem Arbeitgeber freigestellt wurde, zu einem erneuten Bewerbungsgespräch für ihre ehemalige Rolle eingeladen. Bei diesem wurde sie allerdings nicht nur auf Basis ihrer vergangenen Leistungen im Unternehmen, sondern auch mithilfe von HireVue bewertet. Während sie von ihren Fähigkeiten her als passend eingestuft wurde, bewertete die KI ihre Körpersprache als unpassend. Damit wurde sie aus dem Bewerbungsprozess ausgeschlossen.

Eine Gesichts- und Körperspracheanalyse könnte dabei auch als extrem ableistisch (behindertenfeindlich) gewertet werden: Alles, was aus der Norm fällt, wird von der KI automatisch schlechter bewertet. Damit hätten beispielsweise Menschen auf dem Spektrum, mit psychischen Erkrankungen oder mit bestimmten körperlichen Einschränkungen generell noch schlechtere Chancen.

Schlechter Kreditscore – der Nachname war Schuld

Auch in Deutschland ist es vereinzelt zu Rassismus-Vorfällen bei KI-Entscheidungen gekommen. Hierzulande spielt KI besonders im Bereich Kreditscoring eine große Rolle – also bei der Bewertung der Kreditwürdigkeit einer Person. Für die Wohnungsvergabe – besonders in großen Städten – sind Scoringauskünfte schier unvermeidbar. Aufgrund der großen Datenmengen setzen die Auskunfteien hierbei KI ein. Das kann jedoch zu äußerst bizarren Urteilen führen, wie ein spezieller Fall zeigt.

Ein Bericht des ZDF erwähnt den Fall des Oliver A. (Name von Redaktion geändert). Gemeinsam mit seiner Freundin habe dieser versucht, eine Wohnung zu finden. Mit einem gemeinsamen Bruttogehalt von 7.400 Euro hätte das Paar ausreichend Geld für eine attraktive Wohnung in Köln gehabt. Doch nach der Besichtigung und einer positiven Rückmeldung wurde A. plötzlich abgesagt. Der Grund: Eine schlechte Bewertung der Kreditauskunftei.

Trotz gutem Gehalt, beständigem Job und keinen versäumten Zahlungen wurde A. negativ bewertet – wegen seinem Nachnamen. Dieser habe laut dem Bericht arabisch für die KI gewirkt. Daher stufte sie A. als Migranten ein, was wiederum automatisch zu einer insgesamt negativen Bewertung führte.

Dialekte können sich bei der KI-Bewertung negativ auswirken

Eine groß angelegte Studie , die 2024 im renommierten Journal „Nature“ erschien, zeigt außerdem, dass KI unterschwellig rassistische Entscheidungen über Menschen basierend auf ihrem Dialekt fällt. So demonstrierten die Forscher, dass KIs sich bei Sprechern von afroamerikanischem Englisch (AAE) mit höherer Wahrscheinlichkeit für weniger prestigeträchtige Jobs, in simulierten Gerichtsurteilen für häufigere Schuldigsprechungen und häufiger für die Todesstrafe entschied.

Ähnlich verhält es sich bei allen Gruppen, die sprachliche, ethnische oder andere Minderheiten darstellen – sogar bei Ostdeutschen zeigen KI-Modelle vorurteilsbehaftete Entscheidungen. Die Liste an Negativbeispielen ist lang. Wer also KIs in Zukunft in den Betrieb integrieren möchte, sollte – besonders im Bereich HR – vorsichtig vorgehen, um einen möglichst vorurteilsfreien Umgang im Unternehmen zu ermöglichen und Außenstehende nicht unnötig zu belasten.

Hier findest du noch mehr spannende Infos zu Künstlicher Intelligenz:

Der Artikel hat dir gefallen? Gib uns einen Kaffee aus!

Leave a Reply