Chaos aus Pizzen und Kartons

Pizza-Fake bei Grünen-Parteitag: Darum sind KI-Fotos gefährlich

Stand
Autor/in
Johannes Böhler
Johannes Böhler

Nach dem Grünen-Parteitag in Karlsruhe zeigt ein Foto einen Berg aus hinterlassenen Pizzakartons. Das Bild, über das sich im Netz Menschen empören, ist ein Fake. Doch wie erkennt man solche KI-Bilder - und warum sind sie gefährlich?

Ein Bild sorgt für Aufregung in den sozialen Medien. Darauf zu sehen: Achtlos auf den Boden geworfene Pizzakartons - teils noch mit Inhalt - liegen auf dem Boden einer Halle, in der scheinbar soeben ein Parteitag der Grünen zu Ende gegangen ist. Davon scheinen jedenfalls mit Sonnenblumen dekorierte grüne Möbel zu zeugen, die zwischen den Müllbergen stehen.

Fake-Bild wird von Grünen-Gegnern für echt gehalten

Das angebliche Foto wird in den sozialen Medien viel kommentiert: "So sieht's nach einem Grünen-Parteitag aus, wenn die selbst auferlegte, vegane Küche nicht so gut geschmeckt hat", kommentiert ein Nutzer das Bild beim Kurznachrichtendienst X (ehemals Twitter). "Sauecke", schimpft ein anderer. "So sieht Ordnung aus bei den Grünen", spottet ein dritter. Doch das Foto ist eine Fälschung, ein "Fake"-Bild, wie es neuerdings auch genannt wird. Es wurde mit Künstlicher Intelligenz (KI) erstellt.

Laut einem "Faktencheck" der Nachrichtenagentur AFP wurde das Fake-Bild bald nach Ende des Grünen-Parteitags in Karlsruhe von dem Satire-Account "Gesundheitsminister Karl Kautabak" bei X geteilt:

Heute ging der Parteitag von @GrueneBundestag @Die_Gruenen in Karlsruhe zuende. Wie die Bildzeitung berichtet, gab es Pizza. Dieses Foto hat mir soeben jemand anonym zugespielt. pic.twitter.com/sUeU8q2v6z

Darum ist das Pizza-Bild nicht echt

Woran kann man aber nun erkennen, dass es sich um kein authentisches Bild handelt? Als erstes fällt auf, dass auf dem Bild nicht die Halle zu sehen ist, in der der Bundesparteitag der Grünen in Karlsruhe stattgefunden hat. Bei genauerem Hinsehen ist zudem zu erkennen, dass die Konturen von Möbeln wie Pizzakartons nicht logisch verlaufen und Kanten teilweise ineinander übergehen. Wer noch genauer hinschaut, sieht noch ein Detail: Anstelle des normalen Blütenstempels ist die Mitte von ein paar der abgebildeten Sonnenblumen mit Pizzabelag gefüllt - klare Indizien dafür, dass das Bild mittels KI-Technologie generiert wurde. Mittlerweile hat auch X mit einem Kontexthinweis reagiert: "Das Bild ist durch künstliche Intelligenz generiert, was z. B. an der verzerrten Form der Sonnenblumen rechts im Bild erkennbar ist."

Wie man falsche Medieninhalte im Internet erkennen kann, erklärt Lilly Zerbst aus der SWR-Wissenschaftsredaktion:

Pizza beim Grünen-Parteitag? Ausgangspunkt war wohl "BILD"-Bericht

Warum das KI-Bild das Thema Pizza so in den Vordergrund stellt, lässt sich wohl mit einer Randnotiz vom Grünen-Parteitag in Karlsruhe erklären. Die "BILD"-Zeitung hatte berichtet, einige der Delegierten hätten sich Pizza bestellt, weil angeblich das auf dem Parteitag angebotene Essen nicht allen geschmeckt habe. Dass sich Delegierte tatsächlich Pizza auf den Parteitag bestellten, haben die Grünen laut einem Bericht des Magazins "Stern" dann auch bestätigt - dass der Grund dafür die Qualität des Catering-Essens gewesen sei, allerdings nicht. Und die Kartons seien ordentlich entsorgt worden, betonte die Partei.

Inzwischen haben die meisten Kritikerinnen und Kritiker, die das Fake-Bild zunächst für echt gehalten hatten, ihren Irrtum erkannt und sich in den sozialen Medien für den Fehler entschuldigt. Ein paar blieben jedoch beharrlich: Das Bild sei zwar gefälscht, aber so ähnlich werde es schon ausgesehen haben, argumentieren sie.

Die Grünen selbst nehmen die ganze Geschichte offenbar mit Humor: Auf dem X-Account der Partei wurde mittlerweile ein anderes mittels KI-Technologie erstelltes Bild geteilt. Es zeigt die Bundesgeschäftsstelle der Grünen, an deren Fassade ein großes Pizza-Transparent hängt. Auch die Straße vor dem Gebäude ist mit Pizzen gepflastert und das Dach mit Pizzen gedeckt, am Himmel darüber schwebt ein überdimensioniertes Pizzabrot.

Die Bundesgeschäftsstelle am Montag nach der #BDK23. #Pizza pic.twitter.com/76bdTufpyg

Auch ein falsches Video sorgte zuletzt für Aufruhr

Während Fake-Bilder wie diese aufgrund ihrer surrealen Elemente noch recht leicht als unecht zu erkennen sind, ist das längst nicht mehr in allen Fällen so. So zog erst kürzlich eine Kampagne des Künstlerkollektivs "Zentrum für politische Schönheit" für ein Verbot der AfD die Empörung der Bundesregierung auf sich. Denn das "Zentrum für politische Schönheit" hatte dafür ein Deepfake-Video mit einer erfundenen Ansprache von Bundeskanzler Olaf Scholz (SPD) veröffentlicht, in der dieser erklärt, weshalb er die AfD verbieten möchte. Regierungssprecher Steffen Hebestreit erklärte dazu: "Hier bei X und in anderen sozialen Medien kursiert ein Deepfake-Video von @bundeskanzler Olaf Scholz zu einem Parteienverbot. Das Video ist nicht echt. Solche Deepfakes sind kein Spaß. Sie schüren Verunsicherung und sind manipulativ."

Hier auf X und in anderen sozialen Medien kursiert ein Deepfake-Video von @bundeskanzler Olaf Scholz zu einem Parteiverbot. Das Video ist nicht echt. Solche Deepfakes sind kein Spaß. Sie schüren Verunsicherung und sind manipulativ.

Experte warnt vor Destabilisierung durch Verunsicherung

Der Tübinger Medienwissenschaftler Bernhard Pörksen ist Experte für den Medienwandel im digitalen Zeitalter. Auch er sieht in den mittels KI-Technologie gefälschten Bildern und Videos eine Gefahr: Diese liege in einer Destabilisierung des Wahrheitsempfindens, welche eine Stimmung der gefühlten Manipulation befördere, ein "Fake-Gefühl". Im Extremfall könne dieses Fake-Gefühl ganze Gesellschaften destabilisieren. Auf SWR-Anfrage stellte er einen Essay zur Verfügung, der sich mit dem Thema KI-Technologie und ihren Folgen beschäftigt.

Wenn die Menschen Kommunikation als potenziell manipuliert definieren, so hat dies Folgen in der wirklichen Welt.

Als ein erstes Gegenmittel gegen die zunehmende Verunsicherung fordert Pörksen darin mehr Medienbildung. "Je mächtiger die Stimmung der gefühlten Manipulation, je umfassender und perfekter die Angriffe auf das Wahrheitsempfinden, desto wichtiger ist es, in den Schulen und Universitäten des Landes die Auseinandersetzung mit der Täuschungsanfälligkeit des Menschen und seinen großen und kleinen Irrationalismen auf die Lehrpläne zu setzen", schreibt Pörksen. Ob das schon ausreiche? Natürlich nicht, aber es wäre ein Schritt in die richtige Richtung, so der Medienwissenschaftler.

Prof. Bernhard Pörksen, Institut für Medienwisenschaft
Der Medienwissenschaftler Bernhard Pörksen aus Tübingen sorgt sich um eine "Destabilisierung des Wahrheitsempfindens". (Archivbild)

Landeszentrale für Politische Bildung verlangt KI-Kennzeichnung

Laut der Landeszentrale für Politische Bildung (LPB) ist das Erstellen von KI-generierten Bildern mithilfe entsprechender Programme sehr einfach möglich. Auch Menschen mit geringen IT-Kenntnissen können teilweise sogar kostenlos mit wenigen Text-Eingaben, solche Bilder erzeugen. "Die entsprechenden Programme werden immer besser und ihre Ergebnisse zunehmend realitätsnaher", so die Fachreferentin und Leiterin des Fachbereichs E-Learning bei der LPB, Sabine Keitel. Noch seien die Ergebnisse der Bildergeneratoren häufig nicht als KI-erzeugt gekennzeichnet. Eine Lösung für den Umgang mit Fake-Bildern könnte laut LPB eine Vorgabe zur Kennzeichnung von KI-generierten Bildern sein.

SWR Science Talk Wir brauchen Regeln im Umgang mit Künstlicher Intelligenz

Kann es sein, dass künstliche Intelligenz sich verselbständigt? Dazu forscht die Medienethikerin Dr. Jessica Heesen, Universität Tübingen.

Science Talk 3sat

Eine Erklärung, weshalb vornehmlich Gegnerinnen und Gegner der Grünen auf den Pizza-Fake hereingefallen sind, liefert laut LPB die sogenannte Confirmation-Bias. Diese besagt, dass wir Nachrichten erst dann in Frage stellen, wenn sie sich nicht mit unseren Vorannahmen decken. Umgekehrt tendieren Menschen demnach dazu, Desinformationen schneller zu teilen, wenn sie ihre Sicht der Dinge bestätigen oder verstärken. "Es ist zu vermuten, dass Anhängerinnen und Anhänger der Grünen das Pizza-Bild weniger schnell teilen als Grünen-Kritikerinnen und -Kritiker, denen gegebenenfalls nicht an einer sachlichen Darstellung, sondern eher an einer Diffamierung gelegen ist", so Keitel.

Das Beispiel zeige sehr anschaulich eine Entwicklung, die seit Einführung der sozialen Medien die Gesellschaft herausfordere. Texte und Bilder würden häufig ohne Überprüfung schnell geteilt, um Aufmerksamkeit zu erzeugen. Mit Fake-Bildern und auch Sprachmodellen wie ChatGPT-erzeugten Texten werde die Verbreitung von Desinformation weiter zunehmen, prognostiziert die LPB-Referentin.

Künstliche Intelligenz Gespräche führen mit ChatGPT: So lernt die KI des Chatbots von uns

Von Aufsätzen in Uni und Schule bis hin zum Schreiben von Programmcodes - ChatGPT ist ein fortschrittlicher Chatbot, der menschenähnlich kommuniziert. Wie funktioniert er?

KI-Technologie in Konflikt mit dem Grundgesetz?

Besonders gefährlich seien die Fake-Bilder deshalb, so Keitel, weil damit auch Stimmungen erzeugt werden können, die mit der Realität nichts zu tun haben. Dadurch könnten einzelne Personen oder Gruppen in Misskredit geraten und Opfer von Hass und Häme werden. Letztlich stelle diese Entwicklung auch existenzielle Grundlagen des Grundgesetzes wie die Menschenwürde in Frage. "Umso wichtiger sind sowohl politische Regulierungen als auch politische Medienbildung, um diesen Herausforderungen zu begegnen", sagt Keitel.

Mehr zu KI-Fälschungen

Heidelberg

Gefahren von Künstlicher Intelligenz Aleph Alpha-Gründer aus Heidelberg warnt vor Deepfake-Videos

Für Aleph Alpha-Gründer Jonas Andrulis hat Künstliche Intelligenz eine industrielle Revolution eingeleitet. Allerdings warnt der Heidelbeger Unternehmer auch vor negativen Folgen.

SWR4 BW am Morgen SWR4 Baden-Württemberg

Baden-Württemberg

Gefahr durch Künstliche Intelligenz Betrug mithilfe von KI: Schockanrufe mit geklonter Stimme

Mithilfe von KI können Kriminelle Stimmen täuschend echt imitieren. Schockanrufe wirken dadurch noch überzeugender. Wie das Innenministerium und ein Experte die Lage einschätzen.

Freudenstadt

Künstliche Intelligenz für den Notfall KI soll im Schwimmbad in Freudenstadt Leben retten

Ab sofort überwachen KI-Kameras die Badegäste im Panorama-Bad in Freudenstadt. Die künstliche Intelligenz soll erkennen, wenn Schwimmer in Gefahr sind, und dann Alarm geben.

SWR4 BW aus dem Studio Tübingen SWR4 BW aus dem Studio Tübingen

Deepfakes im Internet Das neue Zeitalter der Unwahrheitsvermutung: Droht die Infokalypse im Netz?

Ungeprüfte Falschnachrichten und -bilder im Netz sind eine wachsende Herausforderung für alle. Wir werden umdenken müssen, wenn Wahrheit und Fiktion kaum zu unterscheiden sind.

SWR Science Talk Wir brauchen Regeln im Umgang mit Künstlicher Intelligenz

Kann es sein, dass künstliche Intelligenz sich verselbständigt? Dazu forscht die Medienethikerin Dr. Jessica Heesen, Universität Tübingen.

Science Talk 3sat

Mehr von SWR Aktuell Baden-Württemberg

Baden-Württemberg

Die wichtigsten News direkt aufs Handy SWR Aktuell Baden-Württemberg ist jetzt auch auf WhatsApp

Der WhatsApp-Kanal von SWR Aktuell bietet die wichtigsten Nachrichten aus Baden-Württemberg, kompakt und abwechslungsreich. So funktioniert er - und so können Sie ihn abonnieren.

Baden-Württemberg

SWR Aktuell - der Morgen in Baden-Württemberg Jetzt abonnieren: Newsletter mit BW-Nachrichten am Morgen!

Sie wollen morgens auf dem neuesten Stand sein? Dann abonnieren Sie "SWR Aktuell - der Morgen in BW". Die News aus Ihrem Bundesland ganz bequem in Ihrem Mailpostfach.

Reportagen, Shorts und Erklärvideos SWR Aktuell nun mit eigenem YouTube-Kanal am Start

Ab sofort ist SWR Aktuell auch bei YouTube mit einem eigenen Kanal zu finden. Damit ist die Nachrichtenmarke des SWR künftig neben Instagram und Facebook auch auf der wichtigsten Nachrichtenplattform präsent.