Aktuell | 13. Mai 2025
Künstliche Intelligenz verspricht Effizienz und Innovation. Doch wenn Algorithmen voreingenommen sind, leidet das Vertrauen der Nutzer:innen. Dieser Artikel beleuchtet, warum Bias in KI-Systemen nicht nur ein technisches, sondern auch ein gesellschaftliches Problem ist.
Dieser Fachbeitrag wurde 2022 von Anja Minikus im Rahmen eines Leistungsnachweises im CAS Disruptive Technologies HWZ für den damaligen Blog des Institutes for Digital Business der HWZ verfasst und nun redaktionell neu überarbeitet.
Die Aussage «Technologie ist neutral» ist inkorrekt. Technologie wird von Menschen entwickelt und kann daher nicht objektiv sein. Was heisst «nicht objektiv»? Verzerrungen schleichen sich in KI-basierte Anwendungen ein und haben unfaire Resultate zur Folge.
Bei der Entwicklung von auf KI-basierten Anwendungen gibt es einige Stolperfallen. Eine wesentliche Schwierigkeit besteht darin, keine Verzerrungen, sogenannte «Biases», einfliessen zu lassen. Dabei ist diese Verzerrung in der Regel nicht absichtlich, sondern man spricht von einer kognitiven Verzerrung. Diese entstehen, wenn Menschen bei ihrer Wahrnehmung und ihrem Denken systematisch zu irrationalen Urteilen kommen. Folgende Biases lassen sich nach dem IBM Smarter Workforce Institute unterscheiden:
Darunter versteht man eine stark vereinfachte und pauschale Annahme über bestimme Gruppen von Menschen. Man geht beispielsweise davon aus, dass alle Mitglieder einer Gruppe dieselben Eigenschaften haben. Man unterscheidet zwischen bewussten Vorurteilen (explizite Stereotypen) und unbewussten Vorurteilen (implizite Stereotypen).
Menschen neigen dazu, Informationen zu suchen oder so zu interpretieren, dass sie bereits bestehende Überzeugungen oder Eindrücke stützen.
Hierbei handelt es sich um die Tendenz, Erfolge sich selbst zuzuschreiben und Misserfolge auf äussere Umstände zu schieben.
Dabei beeinflusst ein einzelner positiver Eindruck das Gesamturteil über eine Person.
Menschen tendieren dazu, Personen zu bevorzugen, die ihnen selbst ähnlich sind – sei es in Bezug auf Interessen, Herkunft oder Auftreten.
Verzerrungen finden sich in der Datengrundlage wieder. Dies hat zur Folge, dass beispielsweise eine Menschengruppe gegenüber einer anderen Menschengruppe benachteiligt wird. Die besagte Menschengruppe kann auf die Benachteiligung keinen Einfluss nehmen, da durch die KI-basierten Logiken gewisse Prozesse oder Anträge abgelehnt werden. Als Beispiele können hier die Bonitätsprüfung in Kreditanträgen oder die Aussteuerung von Bewerbungen in Bewerbungsverfahren genannt werden.
Das Erkennen und Entkräften von Biases ist für die Akzeptanz KI-gestützter Technologien zentral. Dieser Aufgabe haben sich auch führende Tech-Unternehmen angenommen. Google beispielsweise setzt auf sechs Prinzipien zur Sicherstellung einer verantwortungsbewussten Entwicklung:
Die Art und Weise, wie die Nutzer ein System tatsächlich einsetzen und nutzen, gibt den richtigen Kontext. Erst mit diesem Wissen lässt sich die Wirkung möglicher Vorhersagen, Empfehlungen und Entscheidungen einordnen.
Für die Bewertung eines Systems soll nicht nur eine Metrik angewendet werden, sondern unterschiedliche Kennzahlen aus unterschiedlichen Perspektiven.
Die Rohdaten, die für das Training von Modellen verwendet werden, reflektieren sich als Outcome im Modell selbst. Es ist unabdingbar, dass man die Daten, die man für das Training verwendet, versteht.
Es muss klar sein, wofür ein Modell eingesetzt werden kann und wo ein Modell an seine Grenzen stösst. Limitationen sollen, wenn immer möglich, an Endnutzende kommuniziert werden. Dies fördert die Transparenz für mögliche Fehler und gibt den Nutzenden die Chance, ihr Feedback über ein System klar zu formulieren.
Das Schreiben und repetitives Durchführen von Tests ist unabdingbar. Dabei ist es zentral, dass die Tests nicht immer mit dem gleichen Testset durchgeführt werden.
Mit dem Monitoren und Aktualisieren des Systems nach dem Deployment stellt man sicher, dass das System auch in der realen Welt verantwortungsbewusst bleibt.
Nicht die Technologie selbst bildet die Grenze möglicher Anwendungsfälle, sondern die Akzeptanz der Nutzerinnen und Nutzer. Die Akzeptanz von KI-basierten Lösungen ist daher wegweisend. Akzeptanz wird durch Vertrauen geschaffen. Die vom WEF geführte IBM Case Study spricht von fünf Säulen des Vertrauens: Erklärbarkeit, Fairness, Robustheit, Transparenz und Datenschutz.
Gerade bei Technologien wie KI, die zunehmend Entscheidungen mit gesellschaftlicher Tragweite beeinflussen, ist dieses Vertrauen entscheidend. Wenn Algorithmen nicht nachvollziehbar oder gar verzerrt sind, droht das Vertrauen verloren zu gehen. Apple-CEO Tim Cook brachte diesen Gedanken bereits 2018 auf den Punkt, als er im Rahmen einer Rede zur digitalen Verantwortung betonte:
We will never achieve technology's true potential without the full faith and confidence of the people who use it.
Seine Aussage gewinnt im Kontext von algorithmischer Fairness und Bias eine neue Aktualität.
Abschliessend lässt sich sagen, dass Verantwortung und Vertrauen gleichermassen entscheidend dafür sind, ob KI-basierte Systeme langfristig Akzeptanz finden und erfolgreich zum Einsatz kommen.
IBM Smarter Workforce Institute. (2019).The role of AI in mitigating bias to enhance diversity and inclusion
Google. (o.J.). Responsible AI practices: General recommended practices for AI
World Economic Forum. (2021). Responsible Use of Technology: The IBM Case Study
CNBC. (2018). Tim Cook: Personal data collection is being ‘weaponized against us with military efficiency
HWZ Hochschule für Wirtschaft Zürich Lagerstrasse 5, Postfach, 8021 Zürich +41 43 322 26 00
ImpressumDatenschutzRechtliches