Das EU-Parlament debattiert über den AI-Act. Das Gesetz ist der erste großangelegte Regulierungsversuch von KI weltweit. Wir stellen die wichtigsten Eckpunkte vor.
Es heißt, der AI-Act werde Symbolcharakter haben, ein Grund mehr es richtig zu machen. Ein Problem des AI-Acts ist, dass die Idee älter ist als die neueste Generation von KIs, sogenannte generative KIs, wie Chat-GPT oder Midjourney. Diese sorgen seit etwa einem halben Jahr beziehungsweise Jahr für den großen KI-Hype in der Öffentlichkeit. Ist der AI Act deswegen vielleicht schon veraltet, lange bevor er überhaupt beschlossen wird?
Wie reguliert man KI?
Die Frage, wie man KI reguliert, wirft sofort viele weitere Fragen auf: Wie kann eine Technologie reguliert werden, die sich so schnell entwickelt? Soll eine so neue Technologie überhaupt reguliert werden, oder wird so Forschung und Innovation abgewürgt? Werden so Unternehmen abgeschreckt, die dann anderswo ihr Geschäft machen?
Auf die erste Frage, wie eine sich so rasant entwickelnde Technologie reguliert werden kann, glaubt die EU eine Antwort gefunden zu haben. Es wird nicht die Technologie an sich reguliert, sondern der Anwendungszweck. Ein System, das Menschen ausnutzen oder unterdrücken soll, gehört laut AI-Act in die Kategorie der inakzeptablen Risiken und wäre damit verboten, sobald der AI-Act verabschiedet ist. Ebenso in diese Kategorie gehören Social Scoring-Systeme, die Menschen aufgrund ihrer Taten und Aussagen bewerten, oder Systeme, die biometrische Daten in Echtzeit auswerten können.
KIs müssen Bedingungen erfüllen
KIs, die in die anderen Risikogruppen eingeordnet werden - hohes Risiko, begrenztes Risiko und niedriges Risiko - sind grundsätzlich erlaubt, allerdings müssen die Systeme, je nach Risiko, eine Reihe von Bedingungen erfüllen.
Auf den ersten Blick erscheint der Ansatz sinnvoll: Egal was uns die KI-Entwickler in Zukunft auftischen, eine der vier Risikokategorien bietet die passenden Regeln.
Doch diese Idee ist älter als Chat-GPT und sie kann mit solchen sogenannten General Purpose AIs - KIs, die für verschiedene Zwecke eingesetzt werden können - nicht umgehen. Dafür wurden jetzt in neueren Fassungen des Gesetzes Regeln und Pflichten für Hersteller festgelegt, mit denen Risiken überblickt und minimiert werden sollen.
Halten sich die Hersteller daran, dann wird ihre KI nicht gleich verboten, auch wenn sie noch für illegale Zwecke eingesetzt werden kann. Genauso wie Küchenmesser nicht verboten sind, obwohl man damit Menschen töten kann.
Kleinere Unternehmen werden möglicherweise verdrängt
Eine Kritik an diesem Ansatz ist, dass kleinere Unternehmen oder einzelne, talentierte Personen, die solche Systeme entwickeln, oft nicht genügend Ressourcen haben, um all diese Regeln umzusetzen und so durch das Gesetz aus dem Markt gedrängt werden. Und selbst Sam Altman, Chef des Chat-GPT-Entwicklers Open-AI, sagte bereits, dass sich sein Unternehmen unter Umständen aus Europa zurückziehen würde, wenn der AI-Act nicht noch entschärft werde.
Der AI-Act ist noch nicht perfekt. Ob er es am Ende wird und hält, was er verspricht, lässt sich noch nicht sagen. Er ist der erste große Versuch einer breiten KI-Regulierung. Auch wenn das Gesetz am Ende nicht perfekt ist, es ist gut, dass Europa diesen Versuch wagt. Wichtig ist aber, dass der AI-Act am Ende doch anpassbar bleibt, an unerwartete Entwicklungen im Bereich der Künstlichen Intelligenz. Denn wir stehen immer noch am Anfang dieser Entwicklung und können nicht voraussagen, was auf uns zukommt.
Mehr zum Thema Künstliche Intelligenz
Kommentar Experten warnen vor Auslöschung der Menschheit durch KI
Eine Reihe führender Experten für Künstliche Intelligenz sieht in der Technologie eine potenzielle Gefahr für die Menschheit und hat dazu aufgerufen, die Risiken ernst zu nehmen. Gefahr oder Marketingstrategie?