Datenschutz: Was tun gegen KI-Daten-Missbrauch?

Stand

In der EU gibt es weltweit das erste Gesetz zum Umgang mit Künstlicher Intelligenz (KI). Der RLP-Datenschutzbeauftragte Dieter Kugelmann sieht KI-Hersteller in der Pflicht.

Datenmanagement werde beim Einsatz von KI in Unternehmen und Verwaltung eine immer wichtigere Rolle spielen, ist Kugelmann im Gespräch mit SWR Aktuell-Moderator Andreas Fischer überzeugt. Beispielsweise bei der Arbeit mit Chatbots gehe es um die Frage, welche Daten dafür benötigt werden.

Die Verantwortung liegt bei den Herstellern der KI

KI am PC benutzen

Gut zu wissen Künstliche Intelligenz (KI) am PC und Smartphone benutzen

Schon seit längerem sind die großen Suchmaschinen mit Künstlicher Intelligenz ausgestattet und für alle nutzbar. HIer ein paar Tipps für den richtigen Umgang damit!

Mit dem Thema Künstliche Intelligenz werde sich auch die 109. Datenschutzkonferenz von Bund und Ländern (25. bis 27.03.) in Berlin beschäftigen. Vor allem sieht der rheinland-pfälzische Datenschutzbeauftragte die Softwarehersteller in der Pflicht: "In den Unternehmen und in der Verwaltung werden Programm eingesetzt, die von außen entwickelt wurden. Da muss man gucken, welche Anforderungen man an den stellt, der einem das zuliefert." Außerdem müssten die Beschäftigten für den richtigen Umgang mit KI geschult werden.

Wann KI beim Datenschutz helfen kann

Der rheinland-pfälzische Datenschutzbeauftragte sieht auch Chancen durch den Einsatz von Künstlicher Intelligenz. Es müsse geprüft werden, ob Daten durch KI "pseudonymisiert" - also unkenntlich - gemacht werden könnten. Ziel sei es, dass der Empfänger gar nicht wisse, von wem die Daten stammen. Wenn KI-Systeme dazu in der Lage seien, "haben wir weniger Probleme mit dem Datenschutz. Denn wir schützen die Rechte der Menschen und ihre personenbezogenen Daten."

Weltweit erstes KI-Gesetz in der EU

In der Europäischen Union gelten seit dem 2. Februar neue Regeln für den Umgang mit Künstlicher Intelligenz. Das ist der sogenannte "AI-Act". Verboten sind unter anderem KI-Programme, die eine Bewertung nach sozialem Verhalten vornehmen. Ebenfalls ausgeschlossen werden eine Emotionserkennung am Arbeitsplatz oder in Bildungseinrichtungen - sowie manipulative KI-Systeme.

Kugelmann betonte, dass Unternehmen, die in Europa arbeiten, sich an die europäischen Regeln halten müssten: "Wir in Europa sind der Auffassung, dass es solche Regeln braucht, um KI einen Rahmen zu geben - für Innovation, aber eben auch, damit die Freiheiten und Rechte der Menschen in der Digitalisierung geschützt werden."