"Das Risiko einer Vernichtung durch KI zu verringern, sollte eine globale Priorität neben anderen Risiken gesellschaftlichen Ausmaßes sein, wie etwa Pandemien und Atomkrieg." Mit diesem Satz warnt das Center for AI Safety, das Zentrum für KI-Sicherheit, vor den Gefahren der Künstlichen Intelligenz. Das im Silicon Valley ansässige Zentrum schreibt sich auf die Flagge, dafür zu sorgen, dass KI sicher entwickelt und eingesetzt wird.
Ein großer Auftrag, der jetzt mit einem einzigen Satz medienwirksam gemacht wird. Unterschrieben wurde die Erklärung von führenden Forschenden – aber auch führenden Köpfen aus der Wirtschaft, etwa die Chefs der drei derzeit wichtigsten Entwickler von KI-Tools: Sam Altman, Open-AI, Demis Hassabis, Google Deep-Mind und Dario Amodei, Anthropic.
Ein Kommentar von David Beck, SWR-Wissenschaftsredaktion
"KI hat das Potenzial, das Verderben der Menschheit herbeizuführen"
Es ist en vogue, vor den Gefahren von KI zu warnen, auch für diejenigen, die sie entwickeln. Das ist ein Trend, der - zumindest in der breiten Öffentlichkeit - seit etwa Beginn dieses Jahres zu beobachten ist.
Das bedeutet nicht, dass von KI keine Gefahr ausgeht, aber auch nicht, dass die Warnungen übertrieben wären. Ich glaube, KI hat das Potenzial, das Verderben der Menschheit herbeizuführen. Wie groß diese Gefahr ist, kann ich nicht sagen. Aber im Silicon Valley ist das sogenannte „P(Doom)“ zurzeit ein beliebtes Gesprächsthema.
Es ist beunruhigend, wenn solche Einschätzungen von Forschenden kommen. Geoffry Hinton, lange Zeit einer der führenden Wissenschaftler in dem Bereich des maschinellen Lernens, sagt heute, dass ein Teil von ihm sein Lebenswerk bedauere. Neben ihm haben auch viele andere Wissenschaftler die Erklärung des Center for AI Safety unterschrieben. Etwa Frank Hutter, Leiter des Machine Learning Lab der Uni Freiburg.
Das sind Personen, deren Warnungen wir ernst nehmen müssen. Sie haben keine wirtschaftlichen Beteiligungen, können nichts gewinnen oder verlieren durch die Vermarktung von KI. Aber es gibt auch noch andere, die vor den Gefahren der Künstlichen Intelligenz warnen.
Unterschriebene Erklärung als Marketinginstrument
Sam Altman ist Mitgründer und Chef des Chat-GPT-Entwicklers Open-AI. Demis Hassabis ist Chef der Google-Tochter Deep-Mind und Lila Ibrahim für das operative Geschäft zuständig. Alle drei haben zum Beispiel die Erklärung des Center for AI Safety ebenfalls unterschrieben.
Das kann als ein besonnener, reflektierter Umgang mit der eigenen Technologie betrachtet werden, ist es vielleicht sogar zum Teil - aber es ist auch Marketing. Vor allem bei Sam Altman ist ein Ansatz der Unternehmenspolitik zu beobachten, den es bisher in der Tech-Branche nicht gab. Statt sich auf Konfrontationskurs mit Gesellschaft und Politik zu begeben, teilt er unsere Bedenken, befeuert sie sogar.
Dadurch hält er dann aber auch Open-AI und damit auch Chat-GPT erfolgreich in den Medien, auch wenn der Hype um den Chatbot vielleicht gerade wieder etwas abebbt. Seine Kongressanhörung vor einigen Wochen, war eine ganz andere, als man sie von Tech-Bossen sonst gewohnt ist. Mark Zuckerberg, Facebook-Chef, war bei seiner Anhörung ständig in der Defensive, die Stimmung war sehr konfrontativ.
Durch ein zumindest scheinbares Kritisieren der KI-Technologie von Sam Altman - wodurch er sich auf die Seite der Abgeordneten stellte - herrschte eine fast schon entspannte Stimmung. Die Abgeordneten sprachen ihn mit seinem Vornamen an, es wurde eher geschnackt als angehört. Es wurde ihm sogar, wenn auch unverbindlich, die Leitung einer weltweiten KI-Regulierungsbehörde angeboten - die er selbst vorgeschlagen hatte. Er hat es zwar abgelehnt, eine solche Stelle zu übernehmen, doch dass er Einfluss auf die politische Regulierung nehmen kann, ist eindeutig. In einer solchen Position ist Altman in der Lage Open-AI einen enormen Wettbewerbsvorteil zu verschaffen.
Es gibt andere Beispiele, die so interpretiert werden können, dass eine solche Warnung Gründe der Vorteilsbeschaffung hat. Elon Musk war vor einiger Zeit der prominenteste Unterzeichner eines Briefs, der ein sechsmonatiges Moratorium für die Entwicklung von mächtigen KIs forderte - explizit solcher, die stärker sind als GPT-4, das aktuell größte Sprachmodell von Open-AI.
Chat-GPT: Open-AI bringt GPT-4 auf den Markt
Was dabei im Hintergrund verschwand, ist, dass Musk vor einigen Jahren bei Open-AI ausstieg, weil ihm die Leitung des Unternehmens verwehrt wurde und er Anfang dieses Jahres ein eigenes KI-Unternehmen gründete, X-AI. Eine sechsmonatige Pause für Open-AI würde X-AI die Möglichkeit geben den technologischen Rückstand zumindest etwas aufzuholen.
Sängerin Grimes für KI-Songs mit ihrer Stimme
Eine weitere Unterzeichnerin der Warnung des Center for AI-Safety von gestern, ist die Sängerin Grimes. Grimes positionierte sich bereits häufiger öffentlich zu Künstlicher Intelligenz. Unter anderem erlaubt sie ganz explizit, dass ihre Stimme von KI dupliziert werden und zum Produzieren von Songs eingesetzt werden darf - unter zwei Voraussetzungen: keine menschenverachtenden Inhalte und sie soll mitverdienen dürfen. Und dass sie jetzt eine Warnung vor KI mitunterstützt, ist natürlich auch eine Werbung für sich und dieses Geschäftsmodell.
Wie ernst sollten die Warnungen zur KI genommen werden?
Ich hoffe, dass solche Warnungen von Personen, die eigene Pferde im Rennen haben, nicht nur leere Versprechungen sind. Vielleicht führen sie ja dazu, dass wirklich vorsichtiger mit der Technologie umgegangen wird. Doch dass diese Personen und Forschende gemeinsam warnen, schwächt die Warnung ab. Mir fällt es schwer so etwas ernst zu nehmen, weil ich mir denke: Ich kaufe es euch einfach nicht ab.
Solange es keine Regulierung gibt, gelten trotz aller noch so guten Vorsätze immer noch die Gesetze des Marktes. Das bedeutet: je schneller und damit je unvorsichtiger die Technologie weiterentwickelt wird desto besser. Doch wie so oft in der Wirtschaft: Besser für alle? Oder nur für manche? Klar ist, KI hat Gefahren, vor denen gewarnt werden muss. Doch die Gefährdung der Menschheit könnte auch einfach eine Marketingstrategie sein.