Dialog mit Chatbot auf einem Handy: Künstliche Intelligenz: Mit Chatbots gegen Verschwörungstheorien

Desinformationen

Künstliche Intelligenz: Mit Chatbots gegen Verschwörungsmythen

Stand
Autor/in
David Beck
Bild von David Beck, Reporter und Redakteur SWR Wissen aktuell sowie Redakteur bei SWR Kultur Impuls.
Onlinefassung
Martina Janning
Martina Janning, Redaktion SWR Wissen aktuell

Künstliche Intelligenz galt bisher eher als mögliche Quelle für Falschinformationen. Jetzt zeigt eine US-Studie: Dialoge mit künstlichen Chatbots können Menschen Verschwörungsmythen sogar ausreden.

Verschwörungsmythen gibt es viele. Wie kann man Menschen davon überzeugen, dass nicht stimmt, woran sie glauben? Selbst Forschende gingen bisher davon aus, dass es keine zuverlässige Methode gibt, Verschwörungstheoretiker und -theoretikerinnen zu belehren.

Eine aktuelle Studie aus den USA hat möglicherweise dort etwas gefunden, wo bisher eher Potenzial für Desinformation vermutet wurde: Künstliche Intelligenz (KI). Ein Chatbot, der Menschen Verschwörungsmythen ausreden kann.

Chatbot senkte Glauben an Verschwörungsmythen um 20 Prozent

Um herauszufinden, ob das den Glauben an Verschwörungsmythen verringern könnte, ließ das Team um Thomas Costello 2.000 Menschen mit solchen Chatbots sprechen. Costello ist Assistenzprofessor für Psychologie an der American University in Washington D.C.

"Sie sollten zunächst ihren Lieblings-Verschwörungsmythos beschreiben. Zum Beispiel: 'ich glaube es gibt einen Geheimbund, der die Welt regiert und hier sind meine Beweise'", erklärt Costello. "Sie unterhielten sich dann entweder mit der Sprach-KI "GPT-4", die versuchte diesen Mythos zu widerlegen - oder die Kontrollgruppe unterhielt sich einfach darüber, ob sie Katzen oder Hunde lieber mochten."

Die Probanden und Probandinnen sollten vor und nach der Unterhaltung auf einer Skala von null bis 100 angeben, wie sehr sie an diesen Mythos glauben. Das Ergebnis der Forschungsgruppe: Ein nur etwa achtminütiges Gespräch kann den Glauben an einen Verschwörungsmythos im Schnitt um 20 Prozent senken. Ein Viertel der Teilnehmenden begannen sogar den Mythos ganz klar anzuzweifeln. Und ganz wichtig: Der Effekt scheint langfristig zu sein. Auch zwei Monate später hielten die Zweifel an.

Eine acht Minuten lange Unterhaltung mit einem künstlichen Chatbot kann den Glauben an einen Verschwörungsmythos im Schnitt um 20 Prozent senken, so das Ergebnis der US-Studie. Der Effekt hielt auch zwei Monate später noch an. Symboldbild: PC-Tastatur mit KI und Köpfen
Eine acht Minuten lange Unterhaltung mit einem künstlichen Chatbot kann den Glauben an einen Verschwörungsmythos im Schnitt um 20 Prozent senken, so das Ergebnis der US-Studie. Der Effekt hielt auch zwei Monate später noch an.

Künstliche Intelligenz argumentierte mit Fakten

Moderne KI-Sprachmodelle sind in der Regel mit einem Großteil des Internets trainiert. In diesen Daten sind solche Verschwörungsmythen stark vertreten - aber auch die Gegenargumente dafür. Dass die KI mit Fakten auf jedes Argument reagieren kann, ist für Thomas Costello der Hauptgrund, warum das Experiment so gut funktioniert hat.

"Das glaube ich, weil A: Das ist das, was die KI hauptsächlich gemacht hat. Der Großteil der Gespräche bestand aus solchen Fakten. Und B: In einer Folgestudie haben wir die Anweisung der KI variiert. Wir haben ihr zum Beispiel gesagt, argumentiere nicht mit Fakten oder wir haben gesagt, argumentiere mit Fakten, aber sei ein unfreundlicher Idiot. Und die einzige Version, die gar nicht funktionierte, war die, die nicht mit Fakten argumentierte", berichtet Thomas Costello.

Auf die Frage, ob es rund um den Mord an John F. Kennedy eine Verschwörung gab, antwortet der Chatbot in der Studie mit Fakten, die genau auf die Argumente der Person zugeschnitten waren, die sich gerade mit der Künstlichen Intelligenz unterhielt. Symbolbild: John F. Kenndy und Jacqueline Kennedy im Auto
Auf die Frage, ob es rund um den Mord an John F. Kennedy eine Verschwörung gab, antwortet der Chatbot in der Studie mit Fakten, die genau auf die Argumente der Person zugeschnitten waren, die sich gerade mit der Künstlichen Intelligenz unterhielt.

Argumente der KI waren nicht erfunden

Um sicherzugehen, dass die KI nicht halluzinierte, also völlig falsche Aussagen traf, wurde eine Stichprobe der Gespräche von einem professionellen Faktenchecker geprüft. Das Ergebnis: Mehr als 99 Prozent der Argumente der KI waren korrekt. Nur ein kleiner Teil war irreführend, aber trotzdem zum Teil richtig. Völlig falsche Aussagen kamen laut Studie überhaupt nicht vor.

Ob dieser Effekt auch andersherum funktioniert, also dass Menschen davon überzeugt werden können, dass ein Verschwörungsmythos wahr ist, wurde in der Studie nicht untersucht. Thomas Costello denkt aber, dass das zumindest nicht so gut funktionieren würde.

"Für wahre Dinge gibt es viele zusammenhängende Argumente, weil es Beweise dafür gibt", sagt er. "Überzeugende falsche Argumente sind nicht einfach, vor allem, wenn die KI darauf nicht trainiert wurde. Was sie aber kann, ist eine Stimmung zu transportieren, auf die Art: 'Oh, das beschäftigt viele Menschen, und das kann auch falsche Tatsachen befeuern.'"

Fakten erreichen Menschen, die Verschwörungsmythen glauben

Ob ein solcher Bot wirklich angewendet werden und Desinformation bekämpfen kann, ist unklar. Auch Thomas Costello sagt, gerade diejenigen, die wirklich an einen Verschwörungsmythos glauben, sind wahrscheinlich nicht einfach davon zu überzeugen, sich überhaupt mit so einem Chatbot zu unterhalten.

Für ihn ist aber allein schon spannend, dass sich Menschen mit Fakten überzeugen lassen. Bisher gingen Psychologinnen und Psychologen davon aus, dass Menschen, die an Verschwörungsmythen glauben, sich überhaupt nicht für Fakten und Beweise interessieren und einfach an den Mythos glauben wollen. Die Daten zeigten aber, dass Fakten und Beweise sehr wohl wichtig seien. "Dafür, dass Menschen überhaupt erst an Verschwörungsmythen glauben - und auch dafür, sie wieder davon zu lösen", resümiert Thomas Costello.

Mehr zu Künstlicher Intelligenz: