KI-Experten machen sich Sorgen
Zahlreiche Forschende warnen inzwischen vor den Gefahren einer Super-KI, die den Menschen in allen Bereichen übertreffen könnte. Beim Tech-Unternehmen Open AI, das ChatGPT entwickelt hat, sorgte ein neuer Meilenstein für interne Differenzen: Die Forscher verzeichneten angeblich Fortschritte bei der Entwicklung einer Superintelligenz, einer KI, die ähnlich intelligent oder sogar intelligenter als der Mensch ist. In einem internen Warnbrief äußerten sie ihre Sorgen darüber, dass eine solche KI auch die Fähigkeit entwickeln könnte, Verteidigungssysteme zu steuern, politische Propaganda zu verbreiten oder Waffen zu produzieren.
Was genau hinter dem Warnbrief steckt, ist nicht klar. Fest steht aber, dass viele Menschen, die sich mit KI beschäftigen, davor warnen, eine Technologie zu entwickeln, die „die Fähigkeit hat, den Menschen zu übertreffen und unkontrollierbar zu werden“, so Connor Leahy, Chef der KI-Firma Conjecture AI.
Ist KI böse?
Warum sollte eine KI aber die Motivation entwickeln, die Weltherrschaft an sich zu reißen? Und warum sollte eine superintelligente KI dem Menschen ähneln? Die Medienethikerin Dr. Jessica Heesen von der Univeristät Tübingen vermutet, dass der Mensch eine Veranlagung hat, Maschinen und Künstliche Intelligenzen zu vermenschlichen, ihnen Eigenschaften wie Gut und Böse zuzuschreiben. Ein Grund dafür könnte sein, dass der Mensch sich von der möglichen Überlegenheit der Maschinen eingeschüchtert fühlt, erklärt sie:
Gespräch Eine KI mit Bewusstsein - ist das möglich?
Der Hype um Chat-GPT hat eine neue Welle der Faszination für Künstliche Intelligenz ausgelöst. Immer wieder dreht sich die Diskussion um eine Frage: Hat KI ein Bewusstsein?
Gedankenexperiment: Darum könnte KI "böse" handeln
Eine KI muss aber nicht unbedingt böse Absichten haben, und könnte trotzdem gefährlich werden. Denn es gibt einen sehr großen Unterschied, ob eine Aufgabe einem Menschen oder einer KI gestellt wird.
Wird ein Mensch zum Beispiel darum gebeten, eine Tasse Kaffee zu holen, ist das nicht dessen Lebensmission. Er versteht den Kontext und wird niemanden umbringen, um eine Tasse Kaffee zu bekommen. Er kann einschätzen, ab wann ein Kaffee im Verhältnis vielleicht zu teuer ist und fragt nochmal nach.
Eine KI hingegen ist nicht dazu in der Lage, in Kontexten zu denken, Nachfragen zu stellen und zu klugen Abwägungen zu kommen, erklärt Heesen. Ein Ziel, zum Beispiel der Kauf eines Kaffees, kann zwar harmlos klingen, aber Teilziele, die eine KI erstellt und als logisch betrachtet, könnten für den Menschen gefährlich werden.
Dass eine KI eines Tages doch so intelligent würde, dass sie die ganzen Kontextbedingungen mitbedenkt und zu einer moralisch hervorragenden Lösung kommt, hält Heesen für unwahrscheinlich. Denn moralische Lösungen sind oft nicht eindeutig. Genau das ist für sie die Bedrohung einer Super-KI: nicht etwa deren hohe Intelligenz, sondern das kalte "Durchdeklinieren" von Prinzipien ohne Einbezug des Kontexts.
Lässt sich KI kontrollieren?
Viele befürchten, dass eine KI außer Kontrolle geraten könnte. Für Entwickler sind einige KI-Systeme schon jetzt eine echte Blackbox. Das hat auch heute schon reale Gefahren: KI könnte verändern, wie Menschen Wissen miteinander austauschen und welchen Informationen sie ausgesetzt sind, befürchtet Fritz Espenlaub, Wissenschaftsjournalist des Bayerischen Rundfunks und Host des KI-Podcasts der ARD.
Der Wissensaustausch könnte immer stärker über KI-Schnittstellen verlaufen, sagt er, und somit über Filter, die sich selbst verstärken - rassistische oder sexistische Filter beispielsweise. Sie würden dafür sorgen, dass weiße Menschen oder Männer ungewollt bevorzugt werden. Solche Filter und Vorannahmen zu erkennen und zu minimieren, ist gar nicht so einfach.
Künstliche Intelligenz Kommentar: Was taugt der AI-Act zur Regulierung von KI?
Der AI-Act ist das weltweit erste umfassende Gesetz zur Regulierung von Künstlicher Intelligenz. Was taugt das KI-Gesetz? Eine Einschätzung von David Beck.
Doch zu einem gewissen Grad ließe sich KI sehr wohl regulieren, nämlich über die Trainingsdaten, meint Jessica Heesen:
Für Jessica Heesen geht es darum, dass schon ganz am Anfang in der Produktentwicklung darüber nachgedacht wird, was schief gehen könnte, sodass nicht einfach superfunktionale KIs entstehen, bei denen viele Nebeneffekte nicht mitgedacht wurden. Um eine KI unter Kontrolle zu haben, seien ihr zufolge die Qualität der Trainingsdaten wichtig. Solche Dinge könne man sehr wohl kontrollieren.
Die wahre Gefahr: Entwicklung von KI liegt in den Händen weniger mächtiger Konzerne
Wer diese Trainingsdaten bestimmt, hat viel Macht. Und genau darin sieht Jessica Heesen die größte Gefahr: Große Plattformbetreiber, wie Google und Amazon, könnten ihre Macht durch eine erfolgreiche KI-Forschung noch einmal sehr stark ausbauen, gerade weil sie schon viele Daten haben, so Heesen. Bei diesen KI-Anwendungen wäre es nicht transparent, wie zum Beispiel die Trainingsdaten aussehen, warnt sie.
Gefährlicher als die Entwicklung einer Super-KI selbst könnte deshalb der Weg dahin sein, wenn die Datenmacht in den Händen einzelner großer Unternehmen liegt und die Regulierung langsamer vorangeht als das Wettrennen Richtung Super-KI. Dann kann die Entwicklung kaum sicher, transparent und wertorientiert passieren.
Warnbrief von Open AI nur ein Marketing Trick?
Viele Wirtschaftsexperten warnen außerdem davor, davon auszugehen, dass große Technologieunternehmen sich selbst regulieren. Das hat spätestens das Chaos bei Open AI gezeigt, dem Unternehmen, dessen Entwickler vor einem bahnbrechenden Fortschritt im KI Bereich warnten und ihrem Geschäftsführer feuerten, nur um ihn wenige Tage später zurückzuholen.
Open AI hatte sich aus einer Bewegung heraus gegründet, die die gemeinsame, transparente und sichere Forschung an KI "zum Wohle der Menschheit" fördern wollte. Das Unternehmen inszeniert sich immer wieder als Hüter einer brisanten Technologie für die Menschheit.
So gesehen kann ein Warnbrief vor einer bahnbrechenden Entdeckung auch als eine ziemlich kluge Marketing-Aktion gesehen werden, um Geldgeber davon zu überzeugen, in eine Technologie zu investieren, die unweigerlich kommen wird und auch davon, dass sie bei Open AI somit an der richtigen Adresse sind, wenn es um Transparenz und Rückgrat in Sachen KI-Sicherheit geht.
Die Bedrohung durch KI wird also, wie so oft, wahrscheinlich weniger von der KI selbst abhängen, als von der Entscheidung ihrer Entwickler.