OpenAI, Betreiber von ChatGPT und Axel Springer haben eine Kooperation vereinbart. Laut Springer soll so "der unabhängige Journalismus im Zeitalter der Künstlichen Intelligenz gestärkt werden". Welche Risiken bietet die Zusammenarbeit? SWR-Wissenschaftsredakteur Stefan Troendle kommentiert.
Am 17. Januar habe ich Chat GPT zum Spaß gefragt, wer der Sohn von Angela Merkel ist.
Partnerschaft von Springer mit Open Ai: ChatGPT als Fake-News-Schleuder?
Spontane Erkenntnis: Das Ding ist als Nachrichtenquelle nicht zu gebrauchen und - wenn die Antworten besser werden - eine riskante Fake-News Schleuder. Nun, wie wir wissen sind die Antworten sehr viel besser geworden als zu Beginn und zwar in rasender Geschwindigkeit.
Das Problem dabei: Die Antworten klingen so glaubhaft, dass schwer zu erkennen ist, ob eine Antwort stimmt oder nicht. Insofern ist die Kooperation von Chat GPT-Entwickler Open AI mit dem Axel-Springer-Verlag durchaus problematisch. Denn der Journalismus im Hause Springer hat - mal vorsichtig gesagt - eine oft stark meinungsgeprägte Richtung, die mit der vollen Marktmacht in die Öffentlichkeit gedrückt wird.
Wenn man dann noch an die Nordkorea-Vergleiche von Springer-Chef Döpfner in Bezug auf den öffentlich-rechtlichen Rundfunk in Deutschland denkt, an seine abschätzigen Äußerungen über Ostdeutsche, an Kampagnen gegen bestimmte Parteien in der Bild, an viele politisch doch recht einseitige Kommentare in der Welt, dann fällt es zumindest schwer, der Springer-Erklärung zu glauben, das Ziel der Zusammenarbeit sei es, unabhängigen Journalismus im Zeitalter der Künstlichen Intelligenz zu stärken.
Mangelnde Transparenz bei KI-generierten journalistischen Inhalten bei Kooperation von Springer mit OpenAI
KI wird in unserem Alltag immer wichtiger, auch im Journalismus - Stichwort Automatisierung. Wenn Springer zur standardmäßigen Nachrichtenquelle für eines der wichtigsten und bekanntesten KI-Tools wird, dann muss man genau beobachten, wie diese Nachrichten aussehen. Wird da - Stichwort Richtung - Berichterstattung mit Meinung vermischt? Werden vielleicht sogar bestimmte Inhalte ausgeblendet?
Erfahren wir auf diesem Weg vielleicht nur noch das, was im Hause Springer für interessant gehalten wird? Was heißt das in Sachen Ukraine- oder Gaza-Krieg oder Corona? Und vor allem: Was heißt das in Bezug auf politische Einflussnahme? Wir können derzeit noch gar nicht absehen, welche Inhalte nicht nur im Netz künftig KI-gesteuert sind und welche automatischen Nachrichten-Bots es geben wird.
Risiko einer Meinungsmacht durch KI-generierte journalistische Inhalte
Wir wissen auch noch nicht, wie die Kooperation genau aussieht, welchen Einfluss sie auf die Trainingsdaten der KI hat. Werden zum Beispiel Inhalte von Springer in das "Wissen" von ChatGPT integriert, oder werden bei Fragen nur Inhalte von Springer-Seiten durchsucht? Technologisch ein großer Unterschied.
Auf jeden Fall besteht hier das Risiko, dass eine ganz neue Meinungsmacht entsteht. Ich habe ChatGPT vorhin mal nach der Partei mit den besten Zielen gefragt. Antwort:
Anschließend werden alle im Bundestag vertretenen Parteien und deren Ausrichtung genannt, an erster Stelle übrigens die CDU - die AfD wird als rechtspopulistisch gekennzeichnet. Das ist sicher ein bisschen zugespitzt, aber vielleicht sollten wir uns diese Antwort merken und die Frage in einem Jahr noch mal stellen.
Mehr zum Thema Künstliche Intelligenz
Künstliche Intelligenz Kommentar: Was taugt der AI-Act zur Regulierung von KI?
Der AI-Act ist das weltweit erste umfassende Gesetz zur Regulierung von Künstlicher Intelligenz. Was taugt das KI-Gesetz? Eine Einschätzung von David Beck.