Hilfe, mein Algorithmus ist diskriminierend: Was tun gegen "bias" in KI

Geschätzte Lesezeit 4 Minuten

Du hast bisher geglaubt, dass Computer, Algorithmen und Künstliche Intelligenzen immer objektiv, fair und neutral bewerten? Dann müssen wir dich leider enttäuschen! Denn Technologie funktioniert nicht immer für alle Personen gleich gut. Manchmal schleicht sich ein sogenannter "bias" ein. Was das genau ist und wie man dagegen vorgehen kann, erfährst du hier.

Irren ist menschlich

Aber beginnen wir zuerst mit einem Rätsel:

A man and his son are in a terrible accident and are rushed to the hospital in critical care. The doctor looks at the boy and exclaims: “I can’t operate on this boy, he’s my son!”

Wie kann das gehen? Bitte überlege kurz, bevor du weiterliest!

Vielleicht hast du es ja schon durch den Titel dieses Beitrags geahnt: Der Arzt ist eine Frau und somit seine Mutter.

Du bist nicht ohne Hilfe darauf gekommen? Dann bist du auf jeden Fall nicht alleine! Denn als die Boston Universität dieses Rätsel veröffentlichte, kamen nur wenige auf die richtige Lösung. Selbst junge Leute und Personen, die sich selbst als FeministInnen sahen, übersahen die Möglichkeit, dass es sich im Rätsel auch um einen weiblichen Arzt handeln könnte. Tatsächlich kamen nur 15% der Kinder und 14% der StudentInnen auf die richtige Antwort.

Dass wir nicht immer richtig liegen und manchmal auch in Schubladen denken, ist völlig normal und auch einfach menschlich. Problematisch ist es nur, wenn wir von Maschinen, künstlichen Intelligenzen und Algorithmen komplette Objektivität und 100% Sicherheit erwarten. Denn wir sind es, die diese Technologien mit Daten und teilweise eben auch Vorurteilen füttern. Eine KI, die von uns lernt, kann also nicht objektiver sein, als wir selbst! Sie enthält also ebenso Verzerrungen, Vorurteile bzw. Stereotype - auf Englisch "bias". 

Was ist überhaupt mit Bias in Algorithmen gemeint?

Margaret Mitchell von Google AI definiert Bias folgendermaßen: Wenn algorithmische Systeme oder algorithmisch unterstütze Entscheidungen eine unfaire, benachteiligende Behandlung von Personen beinhalten, in Bezug auf ihre Ethnie, Einkommen, sexuelle Orientierung, Religion, Geschlecht usw.

Worst-Practice Beispiele von Algorithmen:

Amazon musste seine Künstliche Intelligenz feuern, die als Aufgabe hatte, Lebensläufe zu lesen und auszuwählen. Grund dafür: sie traf sexistische Entscheidungen und bevorzugte oft männliche Bewerber. 

Andere KI’s, wie Gesichtserkennung-Softwares oder Detektoren in Autos, erkennen häufig Menschen mit heller Haut besser als mit dunkler.

Algorithmen im amerikanischen Strafrechtssystem werteten Menschen mit dunklerer Haut häufig als höheres Risiko, obwohl ihre Straftaten im Vergleich zu anderen Häftlingen weniger schwerwiegend waren.

Stimm-AssistentInnen wie Alexa oder Siri verstehen Personen mit Sprachbehinderungen weniger gut und generell weiße Männer am besten.

Google Translate hatte lange Zeit Geschlechter-Stereotypen in ihren Übersetzungen. In einigen Sprachen, wie zum Beispiel türkisch, wird kein Unterschied zwischen weiblich oder männlich gemacht - die Sprache ist also geschlechtsneutral. Es gibt beispielsweise nur einen Begriff für der Arzt oder die Ärztin. Will man diesen Beruf aber auf deutsch übersetzen, so wurde es von Google oft in das Geschlecht übersetzt, welches bestehende Stereotype abbildet. Die Ergebnisse waren also: die Krankenschwester, der Wissenschaftler, der Ingenieur, die Bäckerin, der CEO, usw. Google brachte Adjektive wie schüchtern, attraktiv oder glücklich mit dem weiblichen Geschlecht in Verbindung. Adjektive wie arrogant, schuldig oder grausam eher mit dem männlichen Geschlecht.

Algorithmen halten nicht nur unserer eigenen Gesellschaft einen Spiegel vor, sie verstärken diese Stereotypen dadurch zusätzlich!

Wie kommt es zu einem bias?

in Daten eingebettete historische menschliche Vorurteile

Wenn wir die KI von Daten der Vergangenheit lernen lassen, ist es nur logisch, dass diese Vergangenheit so fortgesetzt wird. Selbst wenn die Daten stimmen und es mehr männliche Ärzte gibt als weibliche, so müssen wir uns fragen, ob wir diese Stereotypen einfach so weiterführen wollen. 

unvollständige/nicht-repräsentative/verzerrte Daten

Wenn wir einen Algorithmus hauptsächlich mit einer bestimmten Gesellschaftsgruppe trainieren, so funktioniert das System oft für andere Gruppen, die im Training nicht beachtet werden, schlechter. Trainieren wir eine Gesichtserkennung-Software nur mit weißen Menschen, so ist es kein Wunder, wenn Menschen mit dunkler Haut schlechter erkannt werden.

Wie erkenne ich einen möglichen bias in meinem Algorithmus?

  • Fehlende Merkmalswerte: Wenn ein oder mehrere Merkmale in deinem Datensatz fehlende Werte für eine große Anzahl von Beispielen aufweisen, könnte das bedeuten, dass bestimmte Schlüsselmerkmale im Datensatz unterrepräsentiert sind.
  • Unerwartete Merkmalswerte: Suche nach Beispielen, die besonders ungewöhnliche Merkmalswerte enthalten. Diese könnten auf Probleme während der Datenerfassung oder andere Ungenauigkeiten hinweisen.
  • Verzerrte Daten: Jede Art von Verzerrung in den Daten, bei der bestimmte Gruppen oder Merkmale im Vergleich zur realen Häufigkeit über- oder unterrepräsentiert werden, kann zu einem fehlerhaften Modell führen.

Wie bekomme ich eine KI ohne bias?

Der erste Schritt ist einmal, sich der Verzerrungen bewusst zu werden und die verschiedenen Gründe dafür zu verstehen. Wenn du also bis hierher gelesen hast, gratuliere- du hast den ersten Schritt schon geschafft!

Außerdem ist es wichtig, dass Unternehmen auf Diversität in technischen Entwicklungsteams achten. GründerInnen und BetreiberInnen von KI-Algorithmen müssen sich immer fragen: Werden einige Gruppen von Menschen durch das Design oder die Konsequenzen des Algorithmus schlechter gestellt? Am besten werden vorab Regeln aufgestellt. Zum Beispiel, dass ein Bewerbungs-Algorithmus eine gleiche Verteilung von Männern und Frauen berücksichtigen muss. Oder EntwicklerInnen erstellen gleich neue, unvoreingenommene Datensätze von denen die KI lernen kann. Auch die Regierung gibt einige ethische Richtlinien vor, an die sich gehalten werden muss. Beispielsweise gibt es von der EU eigene Ethikrichtlinien für Künstliche Intelligenz.

Du brauchst Hilfe dabei, bei Algorithmen und künstlicher Intelligenz durchzublicken und willst es besser für dich und dein Unternehmen nützen? Dann wende dich ganz einfach an unsere Expertinnen und Experten via office@datenwerk.at!

datenwerk | Team Farner