Aleph Alpha aus Heidelberg gilt als eins der europäischen Vorzeigeunternehmen in Sachen Künstlicher Intelligenz (KI). Vor kurzem hat das Unternehmen eine Fördersumme von 500 Millionen Euro vom Land Baden-Württemberg und mehreren Großkonzernen erhalten, darunter SAP und Bosch. Dadurch rücken Aleph Alpha und Unternehmensgründer Jonas Andrulis immer mehr ins Rampenlicht, aber auch die Zahl der Kritiker wächst. In den vergangenen Wochen wurde dem Unternehmen von mehreren Online-Medien vorgeworfen, dass ihre KI diskriminierende und Hitler-verherrlichende Ergebnisse liefert.
Aleph Alpha ist nicht wie ChatGPT
Anders als ChatGPT, richtet sich die KI von Aleph Alpha nicht an den Endverbraucher, sondern an Unternehmen und Verwaltungen.
Trotzdem findet man auf der Website von Aleph Alpha einen Bereich, in dem man das sogenannte Sprachmodell testen kann. Das Sprachmodell bildet die Grundlage, auf der später komplexe KI-Anwendungen aufgebaut werden können. Tatsächlich liefert das Sprachmodell teilweise problematische oder rassistische Ergebnisse, besonders dann, wenn die Fragen tendenziös gestellt werden. Aleph Alpha Gründer Jonas Andrulis ist aber davon überzeugt, dass viele falsche Vorstellungen von dieser Testumgebung haben.
Wie funktioniert so ein Sprachmodell?
Für Experten ist es völlig normal, dass ein KI-Sprachmodell fragwürdige Ergebnisse liefert. Das Sprachmodell beantwortet Fragen nicht nach moralischen Grundsätzen, sondern erstmal nur auf Grund von rein mathematischen Grundsätzen. Die KI bezieht ihr Wissen aus Daten, die meistens aus dem Internet kommen.
Je besser die Datensätze sind, desto mehr Qualität bekommt auch das Sprachmodell. Und genau da liegt für Aleph Alpha das Problem.
KI-Experte Alexander Löser von der Berliner Hochschule für Technik sieht die Lösung hierfür in einem zentralen Open-Source-Datensatz für Deutschland. Dieser müsse seiner Meinung nach vom Bund gefördert werden.
Eine Sprach-KI muss sich entwickeln
Das Sprachmodell von Aleph Alpha muss, so Jonas Andrulis, auch die Dinge kennenlernen, die unsere Gesellschaft moralisch verurteilt. Später werden diese herausgefiltert. Laut Andrulis ist das technisch notwendig.
Mit Hilfe des Sprachmodells werden später unterschiedliche Systeme für die jeweiligen Kunden gebaut, wie z.B. der Sprachbot Lumi auf der Website der Stadt Heidelberg. Erst währenddessen lernt die KI dann z. B. von verschiedenen Filtern, was moralisch akzeptabel ist - oder auch nicht.
Neue Technologien, sagte Jonas Andrulis, bergen auch immer das Risiko, dass sie missbraucht werden. Für ihn sei maximale Transparenz das beste Mittel dagegen. Deswegen bleibt der sogenannte Playground, auf dem Interessierte das Sprachmodell testen können, trotz Kritik weiterhin online.