Sie hilft bei gesellschaftlichen Herausforderungen wie dem Klimawandel, indem sie frühzeitig zu trockene Bäume erkennt. Sie kann dabei unterstützen besser und schneller Medikamente zu entwickeln und auf den Markt zu bringen. Und spätestens ChatGPT hat gezeigt, dass sie Menschen dabei helfen kann, ihren Alltag zu organisieren. Künstliche Intelligenz (KI) kommt fast in jedem Bereich des Lebens zum Einsatz – und soll es besser machen. Umso wichtiger ist es, ihre Auswirkungen auf unser Leben zu verstehen. Neben all den Vorteilen wird nämlich auch immer wieder auf die Risiken von KI hingewiesen. Gerade bei ChatGPT sieht man immer wieder, dass KI auch Fehler macht und sich leicht manipulieren lässt. Eine der wichtigsten Herausforderungen im Kontext KI: Diskriminierung, die von ihr ausgehen kann.
Wieso kann KI diskriminieren?
KI-Systeme basieren auf Algorithmen, die aus Daten Muster ableiten. Wenn diese Daten fehlerhaft sind oder bereits bestimmte Muster beinhalten, die zu Diskriminierung führen, dann kann es passieren, dass die KI diese reproduziert. Konkret heißt das: Wenn KI-Systeme mit Daten trainiert werden, die von Menschen erstellt wurden und menschliche Vorurteile und Ungleichheiten widerspiegeln, dann kann das KI-System die Vorurteile und Ungleichheiten in den Daten verstärken und reproduzieren.
Ein Beispiel: Gesichtserkennungssysteme, die genutzt werden, wenn es um Strafverfolgung geht. Das kann zum Risiko werden, wenn Menschen zu Unrecht als Verdächtige eingestuft werden. Das Problem: Solche Fehler beim Bildabgleich passieren meist bei People of Color. Eine im Jahr 2019 veröffentlichte Studie des Nationalen Instituts für Standards und Technologie zeigt, dass die Fehlerrate bei der Gesichtserkennung bei diesen ethnischen Gruppen bis zu 100-mal höher ist als bei Weißen. Einige Anbieter solcher Software reagierten auf die Kritik, indem sie die Verwendung des Systems durch Strafverfolgungsbehörden einschränkten. Doch das Problem bleibt bestehen: Wenn KI-Systeme nicht mit ausgewogenen Daten trainiert werden, können sie falsche Entscheidungen treffen und Diskriminierung verstärken.
Was sind Folgen von KI-Diskriminierung?
Eines der größten Probleme ist, dass KI-Systeme oft als objektiv und unparteiisch betrachtet werden. Denn es handelt sich nicht um einen Menschen, sondern um ein Programm. Während der Mensch subjektiv wahrgenommen wird, wirken Programme für uns häufig objektiv oder neutral. Dennoch können sie aufgrund der Nutzung echter Daten von menschlichen Vorurteilen beeinflusst werden. Die Folgen von KI-Diskriminierung können schwerwiegend sein. Menschen können aufgrund ihrer Geschlechtszugehörigkeit, Hautfarbe oder anderer Merkmale zum Beispiel – wie beschrieben etwa in der Strafverfolgung – benachteiligt werden. Im Berufsleben kann durch den Einsatz von KI-Systemen, beispielsweise im Bewerbungsprozess, ein Mangel an Diversität entstehen. Auch der SCHUFA wurde in der Vergangenheit vorgeworfen, dass ihre Scores Diskriminierung fördern könnten und beispielsweise jungen und männlichen Personen eine schlechtere Bonität attestieren würden.
Kann Scoring diskriminieren?
Die SCHUFA steht vor der Herausforderung, Diskriminierung in ihrem Bonitätsscoring zu vermeiden. Beim Bonitätsscoring werden anhand von Erfahrungen aus der Vergangenheit Prognosen für die Zukunft erstellt. Dabei geht es um die Frage, wie wahrscheinlich es ist, dass eine Person ihren Zahlungsverpflichtungen nachkommt. Dafür wird ein Score berechnet. Diesen nutzen dann Unternehmen oder Banken dafür, datenbasiert zu entscheiden, ob ein Kredit oder ein Kauf auf Rechnung zustande kommt. So wird das Risiko eines Zahlungsausfalls minimiert. In der Regel kombiniert das Unternehmen diesen Wert zwar auch mit eigenen Daten, zum Beispiel, ob es bereits früher Geschäfte mit jemandem gemacht hat. Dennoch stellt der SCHUFA-Score einen wichtigen Baustein im Risikomanagement dar und sollte daher frei von Diskriminierung sein.