KI-generierte Bilder zum Gaza-Krieg findet man selbst bei seriösen Bildanbietern wie Adobe Stock: Bildmaterial, das so realistisch wirkt wie Fotografie, aber keine ist. Eine gefährliche Entwicklung, sagt der Deutsche Fotorat, da es weder ein Kontrollorgan gibt noch Tools, die Fake-Bilder zuverlässig erkennen.
Alles Fake? Bilderflut aus dem Nahost-Krieg
Einen packenden Bericht über den Gaza-Krieg zu publizieren, mit dramatischen Bildern mitten aus dem Geschehen, ist leichter denn je. Bild-Datenbanken wie Abobe Stock bieten im Netz unzählige eindrückliche Motive: Explosionen, Ruinenlandschaften bis zum Horizont, brennende Autos, Kämpfer, startende Raketen.
Mitten im Schlachtfeld wie immer Kinder in Großaufnahme: lachend, weinend, schreiend, fliehend, betend, mit und ohne Teddy, manche blutend, andere wohlauf. Das Verrückte dabei: Die allermeisten dieser Szenen hat es nie gegeben; die Bilder sind keine Fotos, sondern wurden von künstlicher Intelligenz erzeugt.
Kaum Unterschiede zu echten Fotos
Auf den ersten Blick gebe es gar keinen Unterschied zu echten Fotos, sagt Jürgen Scriba vom Deutschen Fotorat: „Die sind genauso verschlagwortet, die sind genauso beschriftet.“
Die Gefahr sei daher groß, dass gefakte Bilder verwechselt oder absichtlich vertauscht würden mit Bildern von tatsächlichen Geschehnissen. Scriba beobachtet, dass der Anbieter Adobe Stock jetzt schon echte Fotografien aus dem Gaza-Krieg mischt mit KI-erzeugten, aber fotorealistisch wirkenden Bildern.
Online-Tools versagen darin, KI-Bilder zu erkennen
Ein Kampfpanzer mag tatsächlich fotografiert worden sein, ebenso eine fliehende Zivilistin vor rauchenden Trümmern. Doch den hautnah abgebildeten Feuerwehrmann in einer zerstörten Straße dagegen hat es ebenso wenig gegeben wie etliche Palästina-Demos, auf denen zornige Männer schreiend die Fäuste gen Himmel recken – alles aus Pixeln gebaute Illusion.
Es fehlten die technischen Mittel, das alles aufzudecken, sagt Scriba. Die öffentlich zugänglichen Online-Tools, die die Fakes erkennen sollen, hätten in Tests komplett versagt. „Bei KI-generierten Bildern habe ich durch die Bank einen Authetizitäts-Score von mindestens 86 Prozent bekommen.“
„Freiwillige Selbstkontrolle“ scheint gescheitert
Authentizität führt auch eine globale Initiative großer Medien, Software- und Kamerahersteller im Namen: Die Content Authenticity Initiative, 2019 gegründet von New York Times, Twitter und – ausgerechnet – Adobe. Derselben Firma, die jetzt das Netz flutet mit KI-generierten, irreführenden Kriegsbildern zum Thema Gaza.
Trotzdem vertrauen in der EU Deutschland, Frankreich und Italien auf freiwillige Selbstkontrolle der KI-Hersteller. Enge gesetzliche Vorgaben lehnen die drei Länder ab.
Deutscher Fotorat sieht Medienhäuser in der Verantwortung
Unzureichend gegen KI-Fake-Bilder ist auch die Strategie, im Fotoapparat eine Technik einzubauen, die nachweist, dass eine Bilddatei tatsächlich als Fotografie entstanden ist. Es gibt derzeit genau zwei Kameratypen, die das können, aber keinen Workflow, der solche Echtheitsbeweise auch bei Redaktionen und Usern ankommen lässt.
Deshalb fordert der deutsche Fotorat, dass die Medienbranche schnell reagiert. Jürgen Scriba fordert ein klares Bekenntnis gegen KI-generierte Bilder in der Berichterstattung: „Da muss es ein Commitment geben, ein Redaktionsstatut, das sagt: Alles, was ihr bei uns auf der Seite seht, ist echt.“
KI-Antlitze voll ernster Entschlossenheit
Solange es das nicht gibt, werden die Avatare herumgeistern: Bilder von Reporterinnen in schusssicheren Westen, Typ Angelina Jolie; und massenweise Hamas-Kämpfer, die aussehen wie edle Kriegsfürsten aus dem Herrn der Ringe – die ebenmäßigen Antlitze voll ernster Entschlossenheit.
Seltsam nur, dass diese makellosen Helden, unberührt von Blut, Schweiß und Tränen, eine Gesichtshaut haben wie Models für Männerparfüm. Da muss die KI wohl noch mal nachlegen.
KI manipuliert die Berichterstattung
Diskussion Fake oder echt – Welcher Nachricht kann ich trauen?
Gefälschte Regierungsdokumente, irreführende Bilder, manipulierte Politikeraussagen: Seit dem Hamas-Angriff auf Israel hat die Desinformation einen neuen Höhepunkt erreicht, auch dank Künstlicher Intelligenz. Das verunsichert Leser und Zuschauer. Wie lassen sich Lügentexte und -bilder erkennen? Und was bringt eine Kennzeichnungspflicht für KI? Marion Theis diskutiert mit Kathrin Demmler - JFF – Institut für Medienpädagogik in Forschung und Praxis, Carla Reveland - ARD-Faktenfinder, PD Dr. Jochen Roose - Konrad-Adenauer-Stiftung