Das Team von Google DeepMind hat ein neues KI-Tool für die Mediation entwickelt. Taugt die KI als Mediator - und was kann sie nicht?
In einer Demokratie ist es schwierig, einen Konsens zu finden, weil die Menschen so unterschiedliche Ansichten zu politischen und gesellschaftlichen Themen haben. Je weiter die Meinungen auseinander gehen, desto länger dauern Aushandlungsprozesse. Auch Kompromisse sind schwieriger zu erreichen.
In den letzten Jahrzehnten haben sich in einigen Ländern wie den USA zudem politische Gräben aufgetan - durch zunehmende Polarisierung stehen sich die Menschen in den unterschiedlichen politischen Lagern immer unversöhnlicher gegenüber.
Mediatoren können helfen, solche Spannungen zu entschärfen, indem sie zwischen Personen mit unterschiedlichen Einstellungen vermitteln. Inzwischen gibt es nicht mehr nur menschliche Konfliktlöser. In Studien wird auch versucht, KI-Tools als Mediatoren einzusetzen.
Die „Habermas-Maschine“: KI als Mediator
Das Team von Google DeepMind, dessen CEO Demis Hassabis 2024 mit einem KI-Modell den Nobelpreis für Chemie gewann, hat ein solches neues KI-Tool entwickelt. Benannt wurde der KI-Mediator nach dem deutschen Philosophen und Soziologen Jürgen Habermas.
In einer Studie testete das Team, ob KI-Mediatoren bei gemeinsamen Meinungsfindungsprozessen helfen können und wie sie im Vergleich zu menschlichen Vermittlern abschneiden. Das Ziel: Bei Diskussionen über kontroverse Themen sollen Spaltungen zwischen den Konfliktparteien verringert werden. Um dies zu erreichen, sollen gemeinsame Standpunkte gefunden werden.
Studie: Annäherung von Meinungen durch das Finden von Gemeinsamkeiten
An dem Experiment nahmen mehr als 5.000 Menschen aus Großbritannien teil. Die Studienteilnehmerinnen und -teilnehmer wurden in Kleingruppen aufgeteilt und zu ihrer Meinung zu verschiedenen gesellschaftlichen und politischen Themen befragt. Diese schriftlichen Statements wurden sowohl an einen menschlichen Mediator als auch an einen KI-Mediator übergeben. Beide Mediatoren generierten aus den Einzelmeinungen Gruppenaussagen und sollten dabei Gemeinsamkeiten finden.
Abschließend bewerteten die Studienteilnehmenden, wie sehr die jeweiligen Gruppenstatements ihrer individuellen Meinung entsprachen und wie qualitativ hochwertig die Aussagen waren. Basierend auf dieser Kritik wurden in einer zweiten Runde von den Mediatoren wieder neue, überarbeitete Gruppenstatements kreiert, die erneut von den Teilnehmenden beurteilt wurden.
KI-Mediation zeigt Vorteile gegenüber menschlicher Mediation
In der Auswertung zeigte sich: 56 Prozent der Teilnehmenden bevorzugten die KI-generierte Gruppenaussage. 44 Prozent fanden dagegen die Zusammenfassung des menschlichen Mediators besser. Außerdem wichtig: Die Meinungen der Studienteilnehmenden lagen nach der KI-Mediation näher beieinander als zuvor. Ein einfacher Meinungsaustausch der Teilnehmenden untereinander genügte dafür nicht.
Das KI-Tool konnte in dem Experiment besser als menschliche Mediatoren zwischen Personen mit unterschiedlichen Meinungen vermitteln. Woran liegt das? Laut den Wissenschaftlern von Google DeepMind konnte die KI die Standpunkte klarer, informativer und objektiver zusammenfassen. Zudem wurden von der KI sowohl Mehrheits- als auch Minderheitsmeinungen widergespiegelt. Die menschlichen Mediatoren berücksichtigten abweichende Standpunkte dagegen weniger.
Die Ergebnisse der Debatte waren so für die streitenden Gruppenteilnehmenden einfacher zu akzeptieren. Die KI konnte durch das Generieren von Gruppenstatements eine gemeinsame Diskussionsbasis zwischen den Konfliktparteien schaffen. Dies kann zur Streitschlichtung beitragen und den Einigungsprozess beschleunigen.
Gefahr durch manipulierte Inhalte Welchen Einfluss hat KI auf Wahlen?
Experten befürchten, dass im Zuge von Wahlen vermehrt KI zum Einsatz kommt, um Desinformationen zu verbreiten und die Menschen zu beeinflussen.
Was kann der KI-Mediator nicht?
Allerdings kann der KI-Mediator noch nicht alles leisten, was für eine Mediation notwendig ist. Die Maschine ist zum jetzigen Zeitpunkt nicht dazu in der Lage, Fakten zu checken, beim Thema zu bleiben oder die Diskussion zu moderieren. Logikfehler und Falschaussagen der Teilnehmenden können von der Maschine nicht erkannt werden – ähnlich wie von Menschen oft auch nicht. Wenn der KI-Mediator also mit unvollständigen oder falschen Informationen gefüttert wird, wird er daraus fehlerhafte Zusammenfassungen bilden.
Der Einfluss von Desinformationen kann durch verschiedene Maßnahmen aber abgemildert werden. Beispielsweise können Expertenaussagen miteinbezogen und Teilnehmende so ausgewählt werden, dass eine ausgewogene und vielfältige Mischung von Interessengruppen in der Debatte vertreten ist. Sollte der KI-Mediator tatsächlich zum Einsatz kommen, müsste er in einen solchen größeren Entscheidungsfindungsprozess eingebettet werden.
KI könnte in Zukunft bei Mediation hilfreich sein
Noch kann der KI-Mediator einen menschlichen Mediator nicht ersetzen. Die höhere Akzeptanz der KI-Zusammenfassungen durch die Studienteilnehmenden und vor allem auch die Berücksichtigung von Minderheitsmeinungen weisen aber darauf hin, dass eine solche KI nach Weiterentwicklungen gut als Mediator eingesetzt werden könnte.
Künstliche Intelligenz Mit Chatbots gegen Verschwörungsmythen
Künstliche Intelligenz galt bisher eher als mögliche Quelle für Falschinformationen. Jetzt hat eine US-Studie ergeben: KI-Chatbots können den Menschen Verschwörungsmythen ausreden.