Menschen sind leider nicht vorurteilsfrei. Ein Versprechen der künstlichen Intelligenz war es, einen objektiven Blick zu liefern. Aber wie es scheint, übernimmt KI einfach unsere Vorurteile.
Bei weißen Männern funktioniert es, bei schwarzen Frauen nicht – ein häufiges Ergebnis, wenn man Gesichtserkennungs-Software testet. In ihrem Ted-Talk beschreibt die dunkelhäutige Joy Buolamwini, wie sie von Gesichtserkennungs-Software, wie sie zum Beispiel in Kameras eingesetzt wird, oft nicht erkannt wird.
Das Gesicht ihrer asiatischstämmigen Kollegin wird erkannt, ihres aber erst als sie sich eine weiße Maske aufsetzt, die gerade mal auf die grundlegendsten Merkmale eines Gesichts reduziert ist: Augen, Nase, Mund.
KI ist in praktischen Situationen nicht vorurteilsfrei
Der Ted-Talk von Joy Buolamwini ist von 2017. Spätestens seitdem bröckelt es gewaltig am Versprechen der vorurteilsfreien KI.
Doch bevor das Problem gelöst werden kann, muss die Arbeitsgruppe von Ksenia Keplinger erst einmal die Ursache dafür finden. Denn auf dem Papier ist KI tatsächlich völlig vorurteilsfrei. Ein Algorithmus an sich besteht aus Programmiercode. Er teilt nicht – zumindest nicht bewusst – unsere Geschichte, in der Vorurteile oder Rassismus und Sexismus gewachsen sind. Das Problem ist aber auch nicht der Algorithmus, sondern – wieder einmal – wir selbst.
Laut Ksenia Keplinger, der Gruppenleiterin am Max-Planck-Institut für Intelligente Systeme in Stuttgart gibt es zwei Wege, die erklären können woher die Vorurteile kommen. Der erste sind vorurteilsbehaftete Trainingsdaten.
Trainingsdaten der KI sind vorurteilsbehaftet
Vorurteilsbehaftet ist möglicherweise z.B. auch ein Algorithmus, der Bewerbungen filtert. Den würden Entwickler mit allen Bewerbungen trainieren, die je bei dem Unternehmen eingegangen sind – mit einem Hinweis darauf, welche Bewerbung erfolgreich war und welche nicht. So lernt der Algorithmus, was dem Unternehmen bei einer Bewerbung wichtig ist, welche Bewerber am besten passen.
Das Problem daran ist, dass genau in diesen Trainingsdaten ja schon unsere eigenen Vorurteile stecken. Männer wurden in der Vergangenheit bevorzugt, deswegen lernt die KI, dass Männer die besseren Bewerber sind. Migrantinnen und Migranten wurden benachteiligt, deswegen sind das für die KI die schlechteren Bewerber.
Die Trainingsdaten könnten zwar noch verfeinert werden – etwa mit Daten, wer wie lange im Unternehmen geblieben ist oder wer wie schnell aufgestiegen ist – allerdings stecken auch in diesen Daten wieder dieselben Vorurteile.
KI-Entwicklungsteams sind nicht divers
Das führt zur zweiten Quelle von Vorurteilen in der KI: Die Menschen, die sie entwickeln oder anders gesagt: Die Abwesenheit derer, die nicht daran beteiligt sind.
Ksenia Keplinger berichtet, dass die Teams, die solche Algorithmen entwickeln, hauptsächlich aus weißen Männern bestehen. Das ist ein Problem, über das in den vergangenen zehn Jahren viel gesprochen wurde, aber verändert hat sich kaum etwas.
Kunstprojekt "Fair" möchte Problematik aufzeigen
Eine KI, die gar nicht erst versucht vorurteilsfrei zu sein, ist das Kunstprojekt „Fair“, entwickelt von Studierenden der Hochschulen Heilbronn und Pforzheim.
Patrick Hanselmann studiert Softwareentwicklung an der Hochschule Heilbronn und hat „Fair“ mitentwickelt.
Ziel des Projekts, ist es natürlich nicht, Dinge über sich zu erfahren, die man eh schon weiß oder zu zeigen, dass die KI eben nicht alles genau vorhersagen kann, sagt Nicole Ondrusch, Professorin für Softwareentwicklung an der Hochschule Heilbronn, die das Projekt betreut hat.
Und noch problematischer wird es natürlich, wenn die Vorhersagen vorurteilsbehaftet sind.
"Fair" KI ist auch vorurteilsbehaftet
Die Vorhersagen von „Fair“ sind nicht absichtlich mit Vorurteilen versehen – aber die Studierenden sind sich auch durchaus bewusst, dass der Algorithmus vorurteilsbehaftet sein könnte. Aufgrund eigener Vorurteile und der verwendeten Datensätze, sagt Patrick Hanselmann.
Da es für Faktoren wie Einkommen und Gesundheitszustand keine verfügbaren Datensätze gibt, mussten die Entwickelnden von "Fair" diese Datensätze selbst zusammenstellen. Mitentwickler Patrick Hanselmann sagt selbst, dass er nicht garantieren kann, dass diese Datensätze frei von seinen eigenen Vorurteilen sind.
In wirklich ausbalancierte Datensätze muss man eine Menge Arbeit reinstecken. Das ist wesentlich aufwändiger als einfach im Internet sich 50.000 Bilder von Menschen zusammenzustellen, wie die Entwickelnden von "Fair" es getan haben.
Bessere Datensätze und diversere Entwicklerteams nötig, um fairere KI zu erschaffen
Dass Vorurteile völlig aus Algorithmen verschwinden, glaubt Ksenia Keplinger allerdings nicht. Deswegen wird für die Zukunft noch ein dritter Ansatzpunkt im Umgang mit KI wichtig, sagt sie.
Das würde allerdings auch voraussetzen, dass Menschen sich ihrer Vorurteile bewusstwerden und diese ablegen. Ein höheres Ziel, das bisher von keiner Gesellschaft, keiner Kultur umgesetzt werden konnte. Und auch, dass es in Zukunft passieren wird, ist unwahrscheinlich. Ein „Perfekt“ ist nicht möglich, glaubt Ksenia Keplinger, aber wir sollten trotzdem nach einem „Besser“ streben.
Was geht - was bleibt? Zeitgeist. Debatten. Kultur. Kreativität und KI: Ist Maschinenkunst auch Kunst?
Programme wie Dall-E oder Midjourney revolutionieren die Art und Weise wie Kunst hergestellt wird. Es braucht nur noch eine Eingabe, einen Prompt, der das gewünschte Bild präzise beschreibt und in Windeseile spuckt der Algorithmus passende Darstellungen aus.
Gerade hat Google ImaGen vorgestellt, das bewegte Bilder herstellt, Videos zu bauen ist also auch kein Problem mehr. Schon lange gibt es automatische Textgeneratoren wie GPT-3. Die Zukunft ganzer Berufszweige der Kreativbranche scheint bedroht zu sein.
Der Künstler Mario Klingemann arbeitet schon lange mit KI. Jetzt, wo jede*r mithilfe von Programmen wie Dall-E Kunst erzeugen kann, wird es für ihn als Künstler immer schwerer wirklich Neues zu schaffen: „Das reine Erzeugen hübscher Bilder ist mir zu einfach. Ich versuche herauszufinden, was Kunst ausmacht“, sagt er uns.
Die Literaturwissenschaftlerin Stephanie Catani von der Uni Würzburg forscht unter anderem zu Literatur und Kunst, die auf Algorithmen basiert. Sie ist der Meinung, dass eine KI erst mal noch nicht den großen Roman schreiben wird.
Einen ganzen fiktionalen Text zu schreiben, das könnten Maschinen noch nicht besonders gut. Was Catani hingegen mehr interessiere, ist die Frage: „Welches kreative Potenzial steckt in der Maschine als Tool für Künstler*innen der Gegenwart? Denn das eigentlich Kreative ist, mit diesem Programm so umzugehen, dass etwas entsteht, was weiterdenkt.“
Unsere Kollegen vom NDR haben in ihrem Podcast „Die Idee“ auch eine Folge zum Thema Künstliche Intelligenz gemacht! Norbert Grundei spricht darin mit dem KI-Experten Prof. Peter Kabel darüber, ob Künstliche Intelligenz die Bestseller von morgen schreibt oder die Charthits, die wir hören. Er sagt: Ja! Denn für bestimmte Texte ist heute schon KI verantwortlich. Hört doch mal rein bei „Die Idee“:
https://www.ardaudiothek.de/episode/die-idee-mit-norbert-grundei/36-was-kann-die-kuenstliche-intelligenz-prof-peter-kabel/n-joy/12007465/
Weblinks zum Thema:
Dall-E 2: https://openai.com/dall-e-2/
Midjourney: https://www.midjourney.com/home/
Google KI-Video Genarator: https://imagen.research.google/video/
Mario Klingemann: https://quasimondo.com/
KI-Podcast Steve Jobs im Joe Rogan-Interview: https://share.transistor.fm/s/22f16c7f
SWR Wissenschaftspodcast "Fakt ab": https://www.ardaudiothek.de/episode/fakt-ab-eine-woche-wissenschaft/sie-hat-jetzt-einen-anwalt-eine-google-ki-macht-ernst/swr2/10625093/
Was geht - was bleibt? Die Debatte um LaMDA: https://www.ardaudiothek.de/episode/was-geht-was-bleibt-zeitgeist-debatten-kultur/debatte-um-lamda-haben-algorithmen-gefuehle/swr2/10588035/
Habt ihr noch mehr Themen, die wir uns dringend anschauen sollten? Schreibt uns an kulturpodcast@swr.de
Host: Max Knieriemen
Redaktion: Max Knieriemen und Kristine Harthauer