„Ich habe durch meine Auseinandersetzung mit KI gelernt, dass es in einer zwischenmenschlichen Beziehung nicht nur auf eine einseitige Projektion ankommt, sondern auf eine wechselseitige Beziehung", sagt Philosophieprofessorin und Buchautorin Catrin Misselhorn im Gespräch mit SWR2.
Degradiert zum Bedürfnis-Erfüller
Man wachse ja nur an Widerständen, so Misselhorn, die an der Universität Göttingen lehrt. Verhalte sich jemand immer genauso, wie man sich das vorstelle, stecke jemand immer nur zurück, sei das problematisch, denn an so jemandem könne man sich nicht weiterentwickeln.
Man könne zwar auch Empathie mit einem perfekten Gegenüber entwickeln, aber es sei problematisch, wenn man den anderen nur noch als Bedürfnis–Erfüller wahrnehme und nicht mehr als eigenständige Person mit eigenen Bedürfnissen, auf die man eingehen muss.
Empathielos wie Psychopathen
Auch wenn Computerprogramme Emotionen erkennen könnten, fehle ihnen weiterhin die Fähigkeit zur Empathie, so Misselhorn: „Ich habe das mal mit Psychopathen verglichen, die können zwar auch sehr gut Emotionen erkennen und für ihre Zwecke einsetzen, aber sie empfinden selbst keine Empathie.“
Und natürlich seien es nicht die Roboter selbst, die sich irgendwelche Ziele setzten, um uns zu instrumentalisieren, sondern Firmen, die solche Programme entwickelten.
In Europa sei der „A.I.-Act“, das geplante Gesetzeswerk zur Künstlichen Intelligenz eine Möglichkeit, vulnerable Gruppen vor scheinbar emotional agierenden Programmen wie beispielsweise bestimmten manipulativen Apps zu schützen, beispielsweise psychisch labile Menschen oder Kinder.