Voreingenommene Algorithmen
Es gibt KI, die Muster erkennen kann, also die zum Beispiel Röntgenbilder deuten und Krebs auffinden kann.
Ähnliche Programme können Studienplätze vergeben oder Sozialhilfe verteilen. Es könnte jetzt passieren, dass eine KI zur Gesichtserkennung farbige Menschen schlechter erkennt als Menschen mit heller Hautfarbe.
Weil man das System nur mit Bildern von Menschen mit heller Hautfarbe trainiert hat.
Genau dieses Problem tauchte in der Realität auf, ein System hat deshalb „Schwarze“ als "Gorillas" klassifiziert. Das ist ein krasser Fall, der das Problem aber gut zeigt.
Wir brauchen Regeln für gute Software
Einige europäische Firmen und Organisationen wollen Regeln entwickeln, die festlegen, was ist eine gute und eine schlechte Software ist, was ist ein guter, was ein schlechter Algorithmus ist.
Da geht es nicht um KI, die nur die Pizza richtig belegt, sondern um eine KI, die zum Beispiel Sozialhilfe verteilt oder Studienplätze. Hier muss vermieden werden, dass es Algorithmen gibt, die falsch oder einseitig trainiert wurden.
Gedankenexperimente mit dem autonomen Auto
Angenommen, ein autonom fahrendes Auto kommt in die Zwangslage, dass es auf jeden Fall einen Unfall verursachen wird. Es hat lediglich die Wahl, in eine Menge von alten Menschen zu fahren, oder in eine Menge, die sowohl aus alten und aus jungen Menschen besteht.
Wäre ein Mensch in dieser Situation, würde man sagen, egal, wie er handeln würde, das war ein Unfall, da hätte man nichts machen können.
Bei der KI geht man aber davon aus, dass das Auto genügend Zeit hat, alle Möglichkeiten durchzuspielen und dann eine aufgrund komplexer Algorithmen rationale und ethisch richtige Entscheidung zu treffen.
Was hat man von so einem Experiment? Es ist doch eine Fiktion, dass autonome Autos im Ansatz so eine Entscheidung treffen können, das geht im Moment technisch nicht.
Und hinzu kommt: Bis heute weiß man nicht genau, wie Menschen entscheiden, was da genau im Gehirn passiert. Wie soll das dann eine Software wissen?
Dr. Manuela Lenzen ist Philosophin an der Universität Bielefeld und Wissenschaftsjournalistin mit den Themenschwerpunkten Kognitionswissenschaften, Evolutionstheorie und künstliche Intelligenz.
Von dieser Sendung ist kein Manuskript verfügbar.