Technik

Kann man mit künstlicher Intelligenz Gefühle erkennen?

Stand
Autor/in
Michael Ringelsiep
Onlinefassung
Ralf Kölbel

Moderne Smartphones können Gesichter erkennen. Aber sind Algorithmen auch in der Lage, Gefühle wie Wut, Angst oder Freude zu deuten? Welche Chancen und welche Risiken birgt das?

Lachen macht Laune, Lachen ist ansteckend – vor allem dann, wenn es ehrlich ist und von Herzen kommt. Doch was ist ein „ehrliches Lachen“? Software, die mit künstlicher Intelligenz unsere Gesichter scannt, gibt es schon lange. Aber können solche KI-Programme inzwischen auch erkennen, ob wir fröhlich, angeekelt, wütend, traurig sind – oder eben „ehrlich“ lachen?

„Das große Problem ist, dass diese KIs intransparent trainiert werden. Das heißt, wir wissen nicht ganz genau, wie die KIs eigentlich funktionieren, an welchen Materialien und an welchen Gesichtern so eine KI trainiert wurde.“

Es gibt besondere Merkmale für authentisches Lächeln

In einer Versuchsreihe haben Tim Höfling und sein Team Proband*innen vor einen Computer mit einer Webcam gesetzt und ihnen Gesichter gezeigt von fröhlichen, angeekelten, wütenden, traurigen, überraschten und ängstlichen Menschen. Damit wollten sie herauszufinden, wie gut Gesichtserkennungsprogramme heute bereits Gefühle erkennen.

Hierfür mussten die Probanden Mimiken nachahmen. Die Software analysierte im Hintergrund ihren Gesichtsausdruck und verfolgte jede Bewegung im Gesicht mit gelben und blauen Trackingpunkten. So hat eine Probandin bei einem authentischen Lächeln drei bestimmte Bewegungen im Gesicht: Ein sogenanntes „Corner Puller“ zeigt die Bewegung von einem Lächeln.

Beobachten lässt sich auch ein sogenannter "Raiser". Das ist eine, so Höfling, eine Bewegung, wenn die Wangen die Augen ein bisschen zusammendrücken und die Augen mit lächeln. Das ist bei einem authentischen Lächeln der Fall. Charakterisisch für ein authentisches Lächelmn sind auch leicht geöffnete Lippen.

Leicht geöffnete Lippen sind eines der Merkmale eines authentischen Lächelns.
Leicht geöffnete Lippen sind eines der Merkmale eines authentischen Lächelns.

Viele Muskeln sind beim Lachen beteiligt

Wir Menschen haben, je nach Definition, etwa 30 Muskeln im Gesicht, allein 17 davon brauchen wir, um zu Lachen. Die feinen Nuancen unserer Gefühle dokumentieren die Psychologen bislang mit Hilfe von „Elektromyografie“ – kurz EMG. Sensoren auf der Haut messen dabei die elektrische Aktivität der Muskeln und Nerven. Je stärker der Impuls, umso deutlicher und klarer die Emotion. Kann künstliche Intelligenz das auch ohne EMG?

Tim Höfling startete den direkten Vergleich. Er verkabelte die Proband*innen vor dem PC mit dem Gesichtserkennungsprogramm und mit dem EMG. An geeigneten Stellen werden Elektroden angebracht: am Lachmuskel „Zygomaticus Major“, der für viele positive Emotionen zuständig ist. Und direkt im Anschluss werden auch noch Elektroden am “Corrugator“ aufgeklebt, unserem Stirnrunzelmuskel, der bei vielen unangenehmen Emotionen beteiligt ist.

Moderne Smartphones nutzen bereits KI zur Gesichtserkennung. Doch Emotionen zuverlässig zu erkennen, ist eine große technische Herausforderung.
Moderne Smartphones nutzen bereits KI zur Gesichtserkennung. Doch Emotionen zuverlässig zu erkennen, ist eine große technische Herausforderung.

Positive Gefühle werden durch KI besser erkannt

Den Proband*innen wurden Bilder gezeigt, auf die sie reagieren sollten: eher langweilige Fotos und solche, die nachweislich Gefühle auslösen, wechseln sich ab. Zusätzlich zum Scan des Gesichtserkennungsprogramms messen EMG-Sensoren ihre Reaktionen und belegen die gezeigten Gefühle. Am Ende der Testreihe gibt es eine Überraschung.

„Wir konnten zeigen, dass die künstliche Intelligenz sehr gut mit den EMG Messungen korrespondiert und starke Zusammenhänge da sind. Auch zu den subjektiven Bewertungen der Probanden, aber nur für die angenehmen und positiven Reize, die wir präsentiert haben. Bei den negativen Reizen konnten wir keine Beziehungen zu dem EMG oder auch zu den subjektiven Bewertungen der Probanden nachweisen.“

Emotionsüberwachung bei Video-Konferenzen?

Die guten Gefühle werden also erkannt, die schlechten noch nicht so richtig. Die gängigen Gesichtserkennungsprogramme müssen also noch viel lernen. Trotzdem erwägen die ersten Videocall-Anbieter in den USA schon, eine automatische Emotionserkennung in ihre Software zu integrieren, berichtet Prof. Georg W. Alpers. Er hat als Doktorvater die Experimente begleitet.

„Also in der Tat wird das seit kurzem diskutiert von großen Anbietern, die solche Videokonferenz-Software anbieten, ein Modul zu integrieren, das automatisch den Gesichtsausdruck der Teilnehmer erkennt, interpretiert und damit natürlich Rückschlüsse erlaubt für den Arbeitgeber, für was das Gegenüber angeblich fühlt“

Doch noch ist es nicht soweit und wir Menschen sind beim richtigen Deuten von Emotionen einer KI-Software deutlich überlegen. Denn wir können Gefühle auch „nachempfinden“ und uns von einem Lachen „anstecken“ lassen – vor allem wenn es ehrlich ist und von Herzen kommt.

3sat nano: Fake Smile: Kann eine KI Gefühle erkennen?

Mehr zum Thema

Gesellschaft Überwachtes Leben – Gesichtserkennung und Tracking

Immer mehr Menschen werden automatisch auf den Bildern von Überwachungskameras identifiziert – eine Gefahr für die Freiheitsrechte.

SWR2 Wissen SWR2

Künstliche Intelligenz Kommentar: Was taugt der AI-Act zur Regulierung von KI?

Der AI-Act ist das weltweit erste umfassende Gesetz zur Regulierung von Künstlicher Intelligenz. Was taugt das KI-Gesetz? Eine Einschätzung von David Beck.

Stand
Autor/in
Michael Ringelsiep
Onlinefassung
Ralf Kölbel