Moderne Smartphones können Gesichter erkennen. Aber sind Algorithmen auch in der Lage, Gefühle wie Wut, Angst oder Freude zu deuten? Welche Chancen und welche Risiken birgt das?
Lachen macht Laune, Lachen ist ansteckend – vor allem dann, wenn es ehrlich ist und von Herzen kommt. Doch was ist ein „ehrliches Lachen“? Software, die mit künstlicher Intelligenz unsere Gesichter scannt, gibt es schon lange. Aber können solche KI-Programme inzwischen auch erkennen, ob wir fröhlich, angeekelt, wütend, traurig sind – oder eben „ehrlich“ lachen?
Es gibt besondere Merkmale für authentisches Lächeln
In einer Versuchsreihe haben Tim Höfling und sein Team Proband*innen vor einen Computer mit einer Webcam gesetzt und ihnen Gesichter gezeigt von fröhlichen, angeekelten, wütenden, traurigen, überraschten und ängstlichen Menschen. Damit wollten sie herauszufinden, wie gut Gesichtserkennungsprogramme heute bereits Gefühle erkennen.
Hierfür mussten die Probanden Mimiken nachahmen. Die Software analysierte im Hintergrund ihren Gesichtsausdruck und verfolgte jede Bewegung im Gesicht mit gelben und blauen Trackingpunkten. So hat eine Probandin bei einem authentischen Lächeln drei bestimmte Bewegungen im Gesicht: Ein sogenanntes „Corner Puller“ zeigt die Bewegung von einem Lächeln.
Beobachten lässt sich auch ein sogenannter "Raiser". Das ist eine, so Höfling, eine Bewegung, wenn die Wangen die Augen ein bisschen zusammendrücken und die Augen mit lächeln. Das ist bei einem authentischen Lächeln der Fall. Charakterisisch für ein authentisches Lächelmn sind auch leicht geöffnete Lippen.
Viele Muskeln sind beim Lachen beteiligt
Wir Menschen haben, je nach Definition, etwa 30 Muskeln im Gesicht, allein 17 davon brauchen wir, um zu Lachen. Die feinen Nuancen unserer Gefühle dokumentieren die Psychologen bislang mit Hilfe von „Elektromyografie“ – kurz EMG. Sensoren auf der Haut messen dabei die elektrische Aktivität der Muskeln und Nerven. Je stärker der Impuls, umso deutlicher und klarer die Emotion. Kann künstliche Intelligenz das auch ohne EMG?
Tim Höfling startete den direkten Vergleich. Er verkabelte die Proband*innen vor dem PC mit dem Gesichtserkennungsprogramm und mit dem EMG. An geeigneten Stellen werden Elektroden angebracht: am Lachmuskel „Zygomaticus Major“, der für viele positive Emotionen zuständig ist. Und direkt im Anschluss werden auch noch Elektroden am “Corrugator“ aufgeklebt, unserem Stirnrunzelmuskel, der bei vielen unangenehmen Emotionen beteiligt ist.
Positive Gefühle werden durch KI besser erkannt
Den Proband*innen wurden Bilder gezeigt, auf die sie reagieren sollten: eher langweilige Fotos und solche, die nachweislich Gefühle auslösen, wechseln sich ab. Zusätzlich zum Scan des Gesichtserkennungsprogramms messen EMG-Sensoren ihre Reaktionen und belegen die gezeigten Gefühle. Am Ende der Testreihe gibt es eine Überraschung.
Emotionsüberwachung bei Video-Konferenzen?
Die guten Gefühle werden also erkannt, die schlechten noch nicht so richtig. Die gängigen Gesichtserkennungsprogramme müssen also noch viel lernen. Trotzdem erwägen die ersten Videocall-Anbieter in den USA schon, eine automatische Emotionserkennung in ihre Software zu integrieren, berichtet Prof. Georg W. Alpers. Er hat als Doktorvater die Experimente begleitet.
Doch noch ist es nicht soweit und wir Menschen sind beim richtigen Deuten von Emotionen einer KI-Software deutlich überlegen. Denn wir können Gefühle auch „nachempfinden“ und uns von einem Lachen „anstecken“ lassen – vor allem wenn es ehrlich ist und von Herzen kommt.
3sat nano: Fake Smile: Kann eine KI Gefühle erkennen?
Gesellschaft Überwachtes Leben – Gesichtserkennung und Tracking
Immer mehr Menschen werden automatisch auf den Bildern von Überwachungskameras identifiziert – eine Gefahr für die Freiheitsrechte.