Beim Chatten mit ChatGPT fällt kaum auf, dass es sich um einen Chatbot handelt. Während einige den Chatbot aus reiner Neugier ausprobiert haben, nutzen ihn andere zum Beispiel aus beruflichem Interesse: Welche komplexen Programmieraufgaben kann der Bot bereits lösen? Wie klingt es, wenn ChatGPT eine E-Mail für mich formuliert?
Auch Schülerinnen und Schülern sowie Studierenden blieb der neue Nutzen der Sprach-Künstlichen Intelligenz (KI) nicht unbekannt. Schulaufgaben und ganze Hausarbeiten wurden mithilfe des Chatbots generiert. Und nun breiten sich Aufmerksamkeit und Diskussion auch auf wissenschaftliche Veröffentlichungen aus.
Denn Chat GPT hat bereits an wissenschaftlichen Veröffentlichungen mitgeschrieben und wird in mindestens vier Papern sogar als Co-Autorin genannt, wie das Wissenschaftsmagazin Nature berichtet.
Einsatz von Chatbots in der Lehre
Chatbots wie ChatGPT könnten in der Wissenschaft verschieden eingesetzt werden – doch ob und wie sie zum Einsatz kommen sollen, ist unter Expertinnen und Experten umstritten. Neben der Mitarbeit an wissenschaftlichen Artikeln könnten sie auch in der Lehre genutzt werden. Dafür haben sich schon einige Professorinnen und Professoren ausgesprochen.
Ein Chatbot erleichtere Vieles – zum Beispiel, passgenauere Prüfungsaufgaben zu formulieren. Gerade Lehrkräfte in technisch geprägten Studienfächern wie zum Beispiel den Ingenieurswissenschaften fordern explizit auch ihre Studierenden auf, das KI Sprachmodell für ihre Hausarbeiten zu nutzen. Denn wichtig sei doch, dass Studierende in der Lehre auf das vorbereitet werden, was KI und Technologien wie ChatGPT leisten können.
Kritischer betrachtet wird der Einsatz von Chatbots unter anderem von der Universität Tübingen. Die Uni hat den Einsatz von ChatGPT für Studierende und Forschende nun stark eingeschränkt:
Keine KI in schriftlichen Prüfungen Universität Tübingen beschränkt Nutzung von ChatGPT
Die Software ChatGPT kann Mathe, aber auch Texte auf Deutsch und Englisch schreiben. Die Universität Tübingen hat ihren Einsatz für Studierende und Forschende nun stark begrenzt.
Co-Autorschaft von ChatGPT umstritten
Es wird nicht nur diskutiert, ob Sprachmodelle wie ChatGPT zum Schreiben wissenschaftlicher Paper eingesetzt werden sollten, sondern auch, ob und wie der Einsatz dann kenntlich gemacht werden muss. Nachdem vor Kurzem vier Paper eine Co-Autorschaft des Bots angegeben haben, hagelt es nun Kritik: Renommierte wissenschaftliche Fachmagazine wie Nature wollen keine Beiträge akzeptieren, bei denen ein Chatbot als Autor aufgeführt wird. Denn ein Sprachmodell wie Chat GPT könne keine Verantwortung für die Arbeit übernehmen – und das sei die Voraussetzung für eine Autorenschaft.
Nature-Chefredakteurin Magdalena Skipper erklärt, eine künstliche Intelligenz könne man schließlich nicht verklagen. Das Fachmagazin Science fordert darüber hinaus: Der Einsatz von ChatGPT muss klar gekennzeichnet werden. Zum Beispiel als Werkzeug in einer Liste der verwendeten Materialien. Geschieht das nicht, dann kann ein KI-generierter Text als Plagiat angesehen werden.
Dr. Thilo Hagendorff, Post-Doc am Exzellenzcluster „Machine Learning: New Perspectives for Science“ an der Uni Tübingen sieht das anders:
In spätestens 10 Jahren werde es laut Hagendorff absolut selbstverständlich sein, dass Sprachmodelle an wissenschaftlichen Texten mitschreiben. Dann müsste unter jedem wissenschaftlichen Paper stehen, welches Sprachmodell mitgewirkt habe – und diese Information sei dann absolut nichtssagend.
Spart der Einsatz ChatGPT wirklich Zeit?
Ute Schmid, Leiterin der Arbeitsgruppe kognitive Systeme an der Uni Bamberg, meint jedoch, es könnte auch anders laufen. Sie erinnert, wie Sprachprojekte zur maschinellen Übersetzung von EU-Verträgen in alle EU-Sprachen abgebrochen wurden. Für dolmetschende Menschen habe das Editieren von teilweise gut, teilweise schlecht übersetzten Texten viel mehr Aufwand bedeutet, als es gleich selber zu machen.
Der Einsatz von Chat GPT könnte also auch mehr Zeit kosten als letztlich einsparen. Denn das Sprachmodell arbeitet nicht wissenschaftlich fundiert, sondern gibt wieder, was es im Internet findet. Deshalb müssen die Texte nochmal geprüft werden. Ein großes Problem der Software ist dabei, dass sie nicht transparent ist:
Bot ist noch sehr fehleranfällig
Dass auch der Chatbot Fehler machen kann und teils absurde Antworten gibt, wurde sehr schnell klar. Eine Twitter-Userin veröffentliche beispielsweise folgende Chatbot-Antwort auf der Microblogging-Plattform: Auf die Frage, welches Säugetier die größten Eier legen antwortete ChatGPT, es sei der Elefant.
Doch dazu kommt, dass ChatGPT auf Anfrage einfach Quellen erfindet, was in der Wissenschaft als Todsünde gilt. Geforscht wird daher auch daran, KI-generierte Texte extra zu kennzeichnen, also zum Beispiel durch Wasserzeichen. Das ist bereits in der Entwicklung, funktioniert aber nur mit Texten ab einer gewissen Länge.
Vorurteile von Künstlicher Intelligenz Können Psychotests problematische Vorstellungen von KI aufdecken?
Wie gewissenhaft ist eine künstliche Intelligenz (KI) - oder wie neurotisch? Können Psychotests versteckte Persönlichkeitsmerkmale und Moral-Vorstellungen einer KI bestimmen?
Eine wirklich bahnbrechende Evolution sieht Technikethiker Thilo Hagendorff erst dann, wenn man Sprachmodelle wie ChatGPT mit anderen KI-Systemen kombiniert. Die Möglichkeiten sind also noch lange nicht erschöpft. „Da wird sich so viel verändern, was das menschliche Zusammenleben, was die Wirtschaft angeht, dass dort einiges auf uns zukommt“, sagt Hagendorff.