Lange braune Haare, hellblaue Augen und ein selbstbewusstes Auftreten: Sie heißt Larissa Wagner, ist 22 Jahre alt und wohnt in Senftenberg. Oft ist in ihren Bildern im Hintergrund eine Deutschlandfahne zu sehen.
In einem Post auf ihrem X-Profil schreibt sie: „Ich bin ein deutsches Mädel und bin stolz auf mein Land. Nicht nur zur WM. AM 23. Februar werde ich AfD wählen, weil nur so Deutschland wieder auf die Beine kommen kann.“
Das Problem mit Larissa: Sie ist nicht echt, sondern eine KI-Influencerin. Das Profil, dem mehr als 5.000 Konten auf X folgen, ist nur ein Beispiel für KI-Personae, die für eine Partei werben.
KI-Profile werben für Parteien
Einige dieser Profile sind als KI gekennzeichnet, andere nicht. In Larissas Fall steht auf ihrem Profil „KI-Maus“. Allerdings sind ihre generierten Inhalte nicht gesondert gekennzeichnet. Beim schnellen Durchscrollen im Feed könnte man ihre Äußerungen für die Meinungsäußerung eines Menschen halten.
Können solche KI-Influencer*innen Einfluss auf die Wahlen wie die anstehende Bundeswahl nehmen? Die Wahrscheinlichkeit sei sehr begrenzt, erklärt Andreas Jungherr, Professor für digitale Transformation an der Universität Bamberg.

Einfluss auf die Art der politischen Kommunikation
Die Medienwirkungsforschung zeige, dass die Auseinandersetzung mit solchen Inhalten in der Regel weder politische Positionen noch Wahlentscheidungen verändere. Aber: „Der Einfluss solcher Phänomene liegt eher auf der Ebene des politischen Diskurses“, erklärt Jungherr, „also darauf, wie politische Kommunikation abläuft.“
Andreas Jungherr ist Leiter einer Studie, die im Frühling starten soll, und untersuchen wird, wie deutsche Parteien generative KI nutzen, welchen Einfluss sie auf Wahlkampagnen hat und wie sie das Vertrauen der Öffentlichkeit beeinflusst.
Kommerzielle Interessen statt politischer Motivation
Die wichtige Frage dabei sei, so Jungherr, wer von solchen Fake-Profilen profitiert. Hinter solchen Accounts müssten nicht zwangsläufig politische Motive stecken. Forschungen aus den USA zum Thema KI und Wahlkampf zeigten, dass auch rein kommerzielle Interessen eine Rolle spielen können.
„Wenn Unternehmen zum Beispiel sehen, dass AfD-Content gut läuft“, erläutert der Professor, „erstellen sie solche Profile, um durch die angeklickte Werbung Geld zu verdienen.“ Denn auf einem gesellschaftlichen Konflikt zu reiten, der hitzig debattiert wird, erzeugt Aufmerksamkeit – und Akteur*innen mit ökonomischen Interessen kassieren ab.

Stimmklone von Friedrich Merz als überspitzte Satire
In einem Video vom Oktober 2024 wendet sich vermeintlich CDU-Kanzlerkandidat Friedrich Merz an die Wählerinnen und Wähler: „CDU/CSU, wir verachten die Demokratie“, erklärt er. Im Hintergrund läuft die deutsche Nationalhymne, das Logo der CDU ist eingeblendet. Alles wirkt wie eine reale Stellungnahme des Politikers.
Doch das Video ist eine Fälschung. Mittels KI und Stimmenklonen legten die Betreiber des Satire-Instagram-Accounts „AliceFürDeutschland“ dem CDU-Vorsitzenden falsche Aussagen in den Mund. Als KI-Content soll es durch den Textblock „Achtung: Künstliche Inkompetenz“ gekennzeichnet sein.

Dass der schleswig-holsteinische SPD-Bundestagsabgeordnete Bengt Bergt das Video auf seinem Instagram-Kanal teilte, wurde seitens der CDU scharf kritisiert. Der SPD-Politiker greife zu schmutzigen Mittel, um seinen politischen Gegner zu diskreditieren.
Bergt verteidigte das Video als überspitzte Satire, entschuldigte sich jedoch später mit der Begründung, er habe die Wirkung des Videos unterschätzt.
Bei KI-Satire ist aktuell besondere Vorsicht geboten
Satire habe es in der Politik immer gegeben, sagt Jungherr – sei es durch Zeichnungen oder Stimmimitatoren. Also sei im Prinzip nichts grundlegend Neues, wenn man auch KI für satirische Zwecke nutze. Doch in einer Zeit, in der die Nutzung von KI noch nicht normalisiert sei, rate er der Politik zu besonderer Vorsicht.
Andreas Jungherr forschte in den vergangenen vier Jahren zum Thema KI und ihrem Einfluss auf den Wahlkampf in den USA. Seine Beobachtung: Falsche Informationen oder KI-Fälschungen werden schneller aus authentischer Inhalt gewertet, wenn Politiker*innen sie verbreiten – selbst wenn sie als Satire gekennzeichnet sind. Dadurch erreichen sie schnell eine hohe Reichweite.
Wie schützen vor der Täuschung im Netz?
KI für politische Optimierungsprozesse sinnvoll
Zwar rücke das Thema KI und Politik aktuell in den Fokus der Berichterstattung, so Jungherr, allerdings „nur in Verbindung mit spektakulär auf die Öffentlichkeit gerichteten Inhalten“.
Wo die Nutzung von KI wirklich interessant wird, schätzt der Forscher, sei bei der Anwendung innerhalb der Strukturen und Abläufe einer Partei: Wie kann man Hintergrundprozesse optimieren, um besser, schneller und effektiver zu arbeiten?
Diese neue Entwicklung betreffe viele Bereiche der Gesellschaft und somit auch die Politik. „Das sind jedoch Lernprozesse, die eine Weile brauchen, bis man tatsächlich ihre Auswirkungen sehen kann.“

„Demokratie ist nicht durch KI gefährdet“
Parteien sollten offen für technische Innovationen sein, findet Jungherr. KI biete dem Wahlkampf auf jeden Fall Wettbewerbsvorteile: Parteien können Inhalte kostengünstiger generieren, zielgruppenspezifisch aufbereiten und attraktiver gestalten, wodurch sie mehr Menschen effizienter erreichen, erklärt der Forscher.
Utopien, Dystopien: Max Mundhenke macht mittels KI Parteiprogramme zu Wimmelbildern
„Demokratie ist nicht durch KI gefährdet“, sagt er, vielmehr werde die Demokratie durch die Nutzung von KI geschädigt, wenn die etablierten politischen Kräfte und demokratischen Institutionen vor der KI zurückschrecken. „Weil sie Angst vor Authentizität oder das Gefühl haben, dass es mit Manipulation verbunden ist.“

Dieses Gefühl entstehe aber nur, weil die KI aktuell politischen Kräften überlassen werde, die sie zur Manipulation und zum eigenen Vorteil verwenden. „Es liegt nicht an der Technik“, so Andreas Jungherr, „sondern an der Innovationsbereitschaft und dem Innovationswillen, diese Werkzeuge zu erlernen und zu nutzen.“