Das vertraute Bild eines TV-Nachrichtenstudios. Eine Moderatorin schaut in die Kamera, unter ihr ein Text mit der Schlagzeile, neben ihr das passende Bild. Das ist ein Ausschnitt einer Demo-Sendung auf der Webseite des Senders „Channel 1". Das Besondere: Alles wirkt sehr echt. Doch die Frau ist gar keine Frau. Sie ist von einer künstlichen Intelligenz generiert, genau wie ihre Stimme.
Zielgruppe: Die ganze Welt!
Die Moderatorinnen und Moderatoren dieses neuen Nachrichtensenders sollen keine Menschen sein, sondern mit Künstlicher Intelligenz generiert werden. Das gilt auch für die Bilder, die KI soll die News zudem automatisch in diverse Sprachen übersetzen. Ziel ist es, jedem ein persönlich zugeschnittenes Nachrichtenangebot zu machen.
Die KI übersetzt automatisch, die Zielgruppe ist praktisch die ganze Welt. Auch künstlich erstellte Bilder sind für die News geplant. Zum Beispiel da, wo keine Kameras zugelassen werden. Der Sender vergleicht das mit Zeichnungen aus einem Gerichtssaal.
Nur über Werbung finanziert
KI generierte Bilder sollen auch als solche gekennzeichnet werden. Und trotz so viel KI – bei jedem Schritt seien auch Menschen eingebunden.
Fakenews durch Chatbots, die irgendwelche Texte erfinden, seien ausgeschlossen. Die Quellen der Nachrichten seien vertrauenswürdig. „Wir arbeiten mit Namen und Nachrichtenmarken zusammen, die die Nutzer kennen“, sagt der Contentchef von Channel ONE, Scott Zabielski, dem Sender CNBC. Markennamen nennt er aber keine.
Ziel von Channel One sei es, jeder Zuschauerin oder jedem Zuschauer ein direkt auf ihn oder sie zugeschnittenes Newsangebot zu machen, sagt der Gründer Adam Mosam. Das Angebot soll kostenlos sein und sich über Werbung finanzieren.
Was geht - was bleibt? Zeitgeist. Debatten. Kultur. KI-Fake-News in Bild und Ton: Droht uns die Infokalypse?
Mitten drin im „Informationskrieg“ – nach dem Anschlag der Hamas in Israel hat die Menge an Fake-News in den Netzwerken eine nie da gewesene Qualität erreicht. Nachrichten werden für die einen selbst Kriegswerkzeug dank Manipulation.
Von angeblichen Kidnapping-Videos palästinensischer Mädchen, über aus dem Kontext gerissene ägyptische Fallschirmspringer bis hin zu Cristiano Ronaldo angeblich mit einer palästinensischen Flagge im Stadion. Das stellt den Journalismus vor neue Herausforderungen, sagt Josha Weber, Journalist beim Fact-Checking Deutsche Welle: “So eine Flut an aus dem Kontext gerissenen Falschinformationen wie wir sie derzeit erleben, hat es so auch im Ukrainekrieg noch nicht gegeben. Wir kommen als Fakten-Checker gar nicht hinterher, wir können nur einen kleinen Teil davon analysieren.”
„Wir müssen die Plattformen, auf denen Desinformationskampagnen stattfinden, noch stärker in die Verantwortung nehmen. Gerade Elon Musk versucht zurzeit X/Twitter wieder so zu führen wie 2008“, sagt Christian Katzenbach, Professor für Kommunikations- und Medienwissenschaft Alexander von Humboldt Institut für Internet und Gesellschaft (HIIG)
Mit ihm gehen wir der Problematik um YouTube, Facebook, TikTok, Instagram, WhatsApp, Telegram und den vielen anderen Plattformen auf den Grund. “Die benutzen wir immer noch zu achtlos”, sagt Bernhard Pörksen, Medienprofessor Universität Tübingen, "Wir achten beim Medienkonsum bisher viel zu wenig auf die Quelle. Aber die Quelle einer Information ist das entscheidende Detail bei der Einordnung”
Laut Josha Weber fordern manche sogar noch mehr: “KI-Experten sagen uns, wir müssen lernen umzudenken: Wir müssen in Zukunft davon ausgehen, dass das, was im Netz steht, erstmal nicht stimmt.” Der Manipulationsverdacht wird also künftig allgegenwärtig.
Mailt uns Feedback und Themenideen an kulturpodcast@swr.de.
Host: Christian Batzlen
Showrunner: Julian Burmeister
Sendungsmusik (Intro): “The Great Debate” (Dream Theater)
Links zur Sendung:
https://www.nzz.ch/feuilleton/weltbilder-erschuettern-mit-arnold-schwarzenegger-oder-wie-man-desinformation-und-propaganda-wirksam-bekaempft-ld.1691236
https://uni-tuebingen.de/forschung/zentren-und-institute/internationales-zentrum-fuer-ethik-in-den-wissenschaften/publikationen/blog-bedenkzeiten-alt/weitere-blog-artikel/schaden-deepfakes-wirklich-der-demokratie/
https://www.boell.de/de/2020/10/12/fehlinformationen-verstehen-unsere-gesellschaft-unsere-technologie-wir-selbst