Längst ist sie im akademischen Alltag angekommen: Software, mit deren Hilfe Studierende Texte generieren, Übersetzungen vornehmen und Daten analysieren können. Was aber, wenn sie diese Ergebnisse als eigene Arbeit ausgeben? Sind das dann Plagiate und Täuschungsversuche? Müssen Prüfungsordnungen daher geändert werden? Die Hertie School of Governance sagt ja, an der Humboldt-Universität diskutiert man noch und Nordrhein-Westfalen hat ein Gutachten erstellen lassen. Drei Beispiele, die zeigen, welche Herausforderungen sich für Studium, Forschung und Lehre durch ChatGPT & Co. ergeben.
Die Hertie School of Governance ist die erste Berliner Hochschule, die mit einer deutlichen Abgrenzung auf ChatGPT & Co. reagiert. Mitte Februar ließ die Hochschulleitung ein Dokument veröffentlichen, in dem der Umgang mit der intelligenten Software geregelt ist. „Wer zum Beispiel Übersetzungen mittels Software oder von KI zusammengestellte Texte als Ergebnisse eigener Arbeit ausgibt, verletzt Grundregeln akademischer Arbeit und Integrität“, heißt es dort. Und weiter „Dieses Verhalten wird mit Sanktionen belegt.“
Die private Hochschule für öffentliches Handeln will jedoch keinen grundsätzlichen Riegel vor ChatGPT & Co. schieben. Stattdessen sieht Cornelia Woll, Präsidentin der Hertie School, die Sache so: „Künstliche Intelligenz eröffnet uns im Hörsaal und Forschungslabor ungeahnte Möglichkeiten, die wir nutzen und nicht verteufeln sollten.“ Ein intelligenter und transparenter Umgang mit den neuen Instrumenten ersetze nicht den eigenen Kopf, so die Präsidentin weiter, könne aber Zeit sparen und die eigene Arbeit verbessern.
Nicht schummeln! Sondern experimentieren
Aber wie lässt sich die Software nutzen? Was müssen Studierende und auch Lehrende wissen? Damit Studierende KI-Tools reflektiert anwenden können, müssen sie lernen damit umzugehen. Einen Weg dorthin sieht die Hochschulleitung im Ausprobieren. Einzige Voraussetzung: Es müsse den Inhalten und Zielen der Kurse dienen.
Das wäre zum Beispiel im Studiengang Master of Data Science der Fall. Hier sieht Thurid Hustedt, Dekanin für Studienprogramme, eine ideale Möglichkeit. In diesem Studiengang „können KI-Systeme elementarer Bestandteil und Forschungsgegenstand für Hausarbeiten und Projektarbeiten sein. Umso wichtiger ist eine klare Abgrenzung, was erlaubt und verboten ist.“
Humboldt-Universität will Prüfungsordnung nicht ändern
Während an der Hertie School die Spielregeln relativ klar umrissen sind, wird andernorts weiterhin diskutiert. Etwa an der Berliner Humboldt-Universität (HU). Hier rief die Universitätsleitung am 2. März 2023 zu „HU im Dialog: ChatGPT & Co. – textgenerierende KI in der Hochschulbildung.“ Das Echo war gewaltig. Die Veranstaltung fand auf dem Campus Adlershof statt, online nahmen etwa 400 Studierende und Lehrende teil. Und da die Uni auf Dialog setzt, saß neben den Professor*innen auch ein Studierendenvertreter auf dem Podium.
Die brennendste Frage der zweistündigen Veranstaltung war auch hier: Macht ChatGPT eine Änderung der Prüfungsordnung notwendig? Prof. Niels Pinkwart, Vizepräsident für Lehre und Studium, sagt ganz klar nein. „Die Idee, dass wir das durch Kontrolle lösen können, ist absurd.“ Vielleicht verändere sich jedoch die Art und Weise, wie wir prüfen sollten“, so Pinkwart.
Rechtsgutachten: Eine Software ist kein Urheber
In Nordrhein-Westfalen hatte das Ministerium für Kultur und Wissenschaft im Januar ein Gutachten in Auftrag gegeben. Es sollte ganz grundsätzliche Fragen klären, etwa: Wer ist der Urheber einer Hausarbeit, die mittels KI-Software geschrieben wurde? Gibt die Studentin ein Plagiat ab, wenn sie die KI die Arbeit schreiben lässt? Muss der Eigenständigkeitserklärung, die Studierende ohnehin abgeben müssen, etwas hinzugefügt werden?
Das Gutachten soll Hochschulen in NRW die notwendige Orientierung geben, wie in Zukunft zu verfahren sei. Nun, Anfang März, liegt es bereits vor. Die Expert*innen der beteiligten Universitäten – Ruhr-Universität Bochum und Westfälische Universität Münster – stellen klar: Eine Software kann nicht als Urheber des Textes angesehen werden. Wenn Studierende den KI-generierten Text bearbeiten und eine eigene Denkleistung erkennen lassen, dann liegt die Urheberschaft klar bei ihnen.
Was bedeutet das für das Prüfungsrecht?
Auch die Gutachter*innen aus NRW kommen zu dem Schluss: „Die Tools werden aller Voraussicht nach ein selbstverständlicher Teil akademischer Arbeitsumgebung werden.“ Sie sprechen sich jedoch dagegen aus, dass KI-Schreibtools immer und überall erlaubt sind. „Vielmehr wird zu definieren sein, wann, wie und mit welchem Ziel ihr Einsatz in bestimmten Lernphasen und Prüfungen zulässig ist.“ Die formalen Rahmenbedingungen, von Modulbeschreibungen bis hin zu Rechtsvorschriften, müssen entsprechend angepasst werden. Da gibt es also noch reichlich zu tun.
Reflektiertes Denken ist die Basis
Die Gutachter*innen äußern sich auch zum Kern des Problems. Denn die Frage „KI-Schreibtools oder nicht?“ ist natürlich recht vordergründig – auch wenn sie geklärt werden muss. Dahinter stehen grundsätzliche Überlegungen: Wodurch gelingt wissenschaftliche Erkenntnis? Durch reflektiertes Denken und im Schreibprozess des Menschen? Und welche Quellen sind für einen wissenschaftlichen Prozess zulässig? Aus Sicht der Gutachter*innen wird die Wissenschaft KI-Schreibtools ebenso integrieren, wie sie bereits Taschenrechner und Übersetzungsprogramme integriert hat. Die Frage ist nur: Um welchen Preis?
Jede Universität muss diese Fragen für sich und im besten Falle gemeinsam mit ihren Studierenden und Lehrenden beantworten. Bleibt zu hoffen, dass sich Studierende in Zukunft nicht für oder gegen eine Uni entscheiden, je nachdem, ob ChatGPT an der Hausarbeit mitschreiben darf oder nicht.
Diane Schöppe