Nach dem Grünen-Parteitag in Karlsruhe zeigt ein Foto einen Berg aus hinterlassenen Pizzakartons. Das Bild, über das sich im Netz Menschen empören, ist ein Fake. Doch wie erkennt man solche KI-Bilder - und warum sind sie gefährlich?
Ein Bild sorgt für Aufregung in den sozialen Medien. Darauf zu sehen: Achtlos auf den Boden geworfene Pizzakartons - teils noch mit Inhalt - liegen auf dem Boden einer Halle, in der scheinbar soeben ein Parteitag der Grünen zu Ende gegangen ist. Davon scheinen jedenfalls mit Sonnenblumen dekorierte grüne Möbel zu zeugen, die zwischen den Müllbergen stehen.
Fake-Bild wird von Grünen-Gegnern für echt gehalten
Das angebliche Foto wird in den sozialen Medien viel kommentiert: "So sieht's nach einem Grünen-Parteitag aus, wenn die selbst auferlegte, vegane Küche nicht so gut geschmeckt hat", kommentiert ein Nutzer das Bild beim Kurznachrichtendienst X (ehemals Twitter). "Sauecke", schimpft ein anderer. "So sieht Ordnung aus bei den Grünen", spottet ein dritter. Doch das Foto ist eine Fälschung, ein "Fake"-Bild, wie es neuerdings auch genannt wird. Es wurde mit Künstlicher Intelligenz (KI) erstellt.
Laut einem "Faktencheck" der Nachrichtenagentur AFP wurde das Fake-Bild bald nach Ende des Grünen-Parteitags in Karlsruhe von dem Satire-Account "Gesundheitsminister Karl Kautabak" bei X geteilt:
Darum ist das Pizza-Bild nicht echt
Woran kann man aber nun erkennen, dass es sich um kein authentisches Bild handelt? Als erstes fällt auf, dass auf dem Bild nicht die Halle zu sehen ist, in der der Bundesparteitag der Grünen in Karlsruhe stattgefunden hat. Bei genauerem Hinsehen ist zudem zu erkennen, dass die Konturen von Möbeln wie Pizzakartons nicht logisch verlaufen und Kanten teilweise ineinander übergehen. Wer noch genauer hinschaut, sieht noch ein Detail: Anstelle des normalen Blütenstempels ist die Mitte von ein paar der abgebildeten Sonnenblumen mit Pizzabelag gefüllt - klare Indizien dafür, dass das Bild mittels KI-Technologie generiert wurde. Mittlerweile hat auch X mit einem Kontexthinweis reagiert: "Das Bild ist durch künstliche Intelligenz generiert, was z. B. an der verzerrten Form der Sonnenblumen rechts im Bild erkennbar ist."
Wie man falsche Medieninhalte im Internet erkennen kann, erklärt Lilly Zerbst aus der SWR-Wissenschaftsredaktion:
Pizza beim Grünen-Parteitag? Ausgangspunkt war wohl "BILD"-Bericht
Warum das KI-Bild das Thema Pizza so in den Vordergrund stellt, lässt sich wohl mit einer Randnotiz vom Grünen-Parteitag in Karlsruhe erklären. Die "BILD"-Zeitung hatte berichtet, einige der Delegierten hätten sich Pizza bestellt, weil angeblich das auf dem Parteitag angebotene Essen nicht allen geschmeckt habe. Dass sich Delegierte tatsächlich Pizza auf den Parteitag bestellten, haben die Grünen laut einem Bericht des Magazins "Stern" dann auch bestätigt - dass der Grund dafür die Qualität des Catering-Essens gewesen sei, allerdings nicht. Und die Kartons seien ordentlich entsorgt worden, betonte die Partei.
Inzwischen haben die meisten Kritikerinnen und Kritiker, die das Fake-Bild zunächst für echt gehalten hatten, ihren Irrtum erkannt und sich in den sozialen Medien für den Fehler entschuldigt. Ein paar blieben jedoch beharrlich: Das Bild sei zwar gefälscht, aber so ähnlich werde es schon ausgesehen haben, argumentieren sie.
Die Grünen selbst nehmen die ganze Geschichte offenbar mit Humor: Auf dem X-Account der Partei wurde mittlerweile ein anderes mittels KI-Technologie erstelltes Bild geteilt. Es zeigt die Bundesgeschäftsstelle der Grünen, an deren Fassade ein großes Pizza-Transparent hängt. Auch die Straße vor dem Gebäude ist mit Pizzen gepflastert und das Dach mit Pizzen gedeckt, am Himmel darüber schwebt ein überdimensioniertes Pizzabrot.
Auch ein falsches Video sorgte zuletzt für Aufruhr
Während Fake-Bilder wie diese aufgrund ihrer surrealen Elemente noch recht leicht als unecht zu erkennen sind, ist das längst nicht mehr in allen Fällen so. So zog erst kürzlich eine Kampagne des Künstlerkollektivs "Zentrum für politische Schönheit" für ein Verbot der AfD die Empörung der Bundesregierung auf sich. Denn das "Zentrum für politische Schönheit" hatte dafür ein Deepfake-Video mit einer erfundenen Ansprache von Bundeskanzler Olaf Scholz (SPD) veröffentlicht, in der dieser erklärt, weshalb er die AfD verbieten möchte. Regierungssprecher Steffen Hebestreit erklärte dazu: "Hier bei X und in anderen sozialen Medien kursiert ein Deepfake-Video von @bundeskanzler Olaf Scholz zu einem Parteienverbot. Das Video ist nicht echt. Solche Deepfakes sind kein Spaß. Sie schüren Verunsicherung und sind manipulativ."
Experte warnt vor Destabilisierung durch Verunsicherung
Der Tübinger Medienwissenschaftler Bernhard Pörksen ist Experte für den Medienwandel im digitalen Zeitalter. Auch er sieht in den mittels KI-Technologie gefälschten Bildern und Videos eine Gefahr: Diese liege in einer Destabilisierung des Wahrheitsempfindens, welche eine Stimmung der gefühlten Manipulation befördere, ein "Fake-Gefühl". Im Extremfall könne dieses Fake-Gefühl ganze Gesellschaften destabilisieren. Auf SWR-Anfrage stellte er einen Essay zur Verfügung, der sich mit dem Thema KI-Technologie und ihren Folgen beschäftigt.
Als ein erstes Gegenmittel gegen die zunehmende Verunsicherung fordert Pörksen darin mehr Medienbildung. "Je mächtiger die Stimmung der gefühlten Manipulation, je umfassender und perfekter die Angriffe auf das Wahrheitsempfinden, desto wichtiger ist es, in den Schulen und Universitäten des Landes die Auseinandersetzung mit der Täuschungsanfälligkeit des Menschen und seinen großen und kleinen Irrationalismen auf die Lehrpläne zu setzen", schreibt Pörksen. Ob das schon ausreiche? Natürlich nicht, aber es wäre ein Schritt in die richtige Richtung, so der Medienwissenschaftler.
Landeszentrale für Politische Bildung verlangt KI-Kennzeichnung
Laut der Landeszentrale für Politische Bildung (LPB) ist das Erstellen von KI-generierten Bildern mithilfe entsprechender Programme sehr einfach möglich. Auch Menschen mit geringen IT-Kenntnissen können teilweise sogar kostenlos mit wenigen Text-Eingaben, solche Bilder erzeugen. "Die entsprechenden Programme werden immer besser und ihre Ergebnisse zunehmend realitätsnaher", so die Fachreferentin und Leiterin des Fachbereichs E-Learning bei der LPB, Sabine Keitel. Noch seien die Ergebnisse der Bildergeneratoren häufig nicht als KI-erzeugt gekennzeichnet. Eine Lösung für den Umgang mit Fake-Bildern könnte laut LPB eine Vorgabe zur Kennzeichnung von KI-generierten Bildern sein.
SWR Science Talk Wir brauchen Regeln im Umgang mit Künstlicher Intelligenz
Kann es sein, dass künstliche Intelligenz sich verselbständigt? Dazu forscht die Medienethikerin Dr. Jessica Heesen, Universität Tübingen.
Eine Erklärung, weshalb vornehmlich Gegnerinnen und Gegner der Grünen auf den Pizza-Fake hereingefallen sind, liefert laut LPB die sogenannte Confirmation-Bias. Diese besagt, dass wir Nachrichten erst dann in Frage stellen, wenn sie sich nicht mit unseren Vorannahmen decken. Umgekehrt tendieren Menschen demnach dazu, Desinformationen schneller zu teilen, wenn sie ihre Sicht der Dinge bestätigen oder verstärken. "Es ist zu vermuten, dass Anhängerinnen und Anhänger der Grünen das Pizza-Bild weniger schnell teilen als Grünen-Kritikerinnen und -Kritiker, denen gegebenenfalls nicht an einer sachlichen Darstellung, sondern eher an einer Diffamierung gelegen ist", so Keitel.
Das Beispiel zeige sehr anschaulich eine Entwicklung, die seit Einführung der sozialen Medien die Gesellschaft herausfordere. Texte und Bilder würden häufig ohne Überprüfung schnell geteilt, um Aufmerksamkeit zu erzeugen. Mit Fake-Bildern und auch Sprachmodellen wie ChatGPT-erzeugten Texten werde die Verbreitung von Desinformation weiter zunehmen, prognostiziert die LPB-Referentin.
Künstliche Intelligenz Gespräche führen mit ChatGPT: So lernt die KI des Chatbots von uns
Von Aufsätzen in Uni und Schule bis hin zum Schreiben von Programmcodes - ChatGPT ist ein fortschrittlicher Chatbot, der menschenähnlich kommuniziert. Wie funktioniert er?
KI-Technologie in Konflikt mit dem Grundgesetz?
Besonders gefährlich seien die Fake-Bilder deshalb, so Keitel, weil damit auch Stimmungen erzeugt werden können, die mit der Realität nichts zu tun haben. Dadurch könnten einzelne Personen oder Gruppen in Misskredit geraten und Opfer von Hass und Häme werden. Letztlich stelle diese Entwicklung auch existenzielle Grundlagen des Grundgesetzes wie die Menschenwürde in Frage. "Umso wichtiger sind sowohl politische Regulierungen als auch politische Medienbildung, um diesen Herausforderungen zu begegnen", sagt Keitel.
Mehr zu KI-Fälschungen
Gefahren von Künstlicher Intelligenz Aleph Alpha-Gründer aus Heidelberg warnt vor Deepfake-Videos
Für Aleph Alpha-Gründer Jonas Andrulis hat Künstliche Intelligenz eine industrielle Revolution eingeleitet. Allerdings warnt der Heidelbeger Unternehmer auch vor negativen Folgen.