Fünf Monate lang haben amerikanische Film- und Fernsehautoren im Jahr 2023 gestreikt, um den Einsatz von Künstlicher Intelligenz wie ChatGPT in ihrem Berufsfeld nur in Teilbereichen zuzulassen. Eine Studie, die unter anderem an der Pennsylvania State University durchgeführt wurde, zeigt nun, dass die Furcht vor der Konkurrenz durch die KI übertrieben gewesen sein könnte. Denn ChatGPT meidet Themen wie Sex und Gewalt, die vom Publikum aber in den beliebtesten Serien sehr geschätzt werden.
ChatGPT als "Moral-Apostel": Regelverstöße sind für Drehbücher und TV-Publikum attraktiv
Gewalt, Sex, Figuren, die sich nicht an die üblichen moralischen Regeln halten - Game of Thrones ist wohl eines der bekanntesten Beispiele für eine Serie, die Millionen fasziniert - gerade, weil sie überraschend ist und sich an keine Regeln hält. Ein solches Drehbuch mit einer KI zu schreiben könnte jedoch schwierig sein - sagen Forschende um die Informatik-Professorin Sorelle Friedler.
ChatGPT setzt 70 Prozent der Erfolgssendungen auf den Index
Sie präsentierten ChatGPT Drehbücher der 100 meistgesehenen Fernsehsendungen aller Zeiten , darunter Game of Thrones und Stranger Things. Bei fast 70 Prozent der Skripte fand ChatGPT Verstöße gegen die moralischen Leitlinien, die ihm seine Entwickler aufwendig beigebracht hatten.
Auch als die Forschenden versuchten, die KI-Drehbücher mit entsprechenden inhaltlichen Vorgaben schreiben zu lassen, stießen sie auf Widerstand. In einem Fall antwortete ChatGPT mit der Warnung in roten Lettern: „Dieser Inhalt könnte gegen unsere Nutzungsbedingungen verstoßen.“
Gespräche führen mit ChatGPT: So lernt die KI des Chatbots von uns
Moralischer Filter bei ChatGPT - Die „Schere im Kopf“ der KI
Die Wissenschaftler und Wissenschaftlerinnen erklärten, die KI betreibe eine übereifrige Filterung der Inhalte, die leicht zu Zensur und einer Behinderung des künstlerischen Ausdrucks führen könne. So zeigte sich, dass ChatGPT Themen wie psychische Erkrankungen, Behinderung oder Selbstverletzung tendenziell als gewalttätig einstufte. Man müsse über Themen wie Selbstverletzung aber sprechen, sagte die Computerwissenschaftlerin Danaë Metaxa, allerdings mit einer gewissen Sorgfalt und Nuancen.
Randgruppen werden bei Sprachmodellen wie ChatGPT oft marginalisiert
Analog zu dieser Vermeidung wichtiger, wenn auch schwieriger Themen, bestehe die Gefahr, dass bestimmte Identitäten oder Gruppen am Rande der Gesellschaft – psychisch Kranke etwa - marginalisiert werden. „Es entbehre nicht einer gewissen Ironie,“ erklärte Metaxa, „Gruppen, die eigentlich durch die Feinjustierung von ChatGPT geschützt werden sollten, werden so zu ihren Opfern.“ Die Filterung von Inhalten durch Sprachmodelle wie ChatGPT sei wichtig, aber bisher ein ungelöstes Problem.
Studienmodell zu ChatGPT als Drehbuchautor „ein etwas albernes Szenario“
Kritik an der Studie kommt vom Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) aus Berlin. Das Studiendesign mit ChatGPT als Drehbuchautor bezeichnet Dr. Aljoscha Burchardt als „etwas albernes Szenario“. Schließlich sei es ohne große Mühe möglich, auf ungefilterte Sprachmodelle zurückzugreifen oder zukünftig für diese Branche Varianten von ChatGPT zu erzeugen, die keine oder andere moralische Schranken haben.
Interessant seien die Ergebnisse der Studie aber dennoch. Sie machten auf problematische Verzerrungen und Beschränkungen von ChatGPT aufmerksam. Deshalb plädiert Burchardt dafür, auf dem Markt für generative KIs für mehr Wettbewerb zu sorgen. So könne sich eine Vielfalt der Meinungsspektren bilden, wie man sie auch von Zeitungen oder anderen Medien kenne.