ChatGPT ist eine Sprachsoftware mit Künstlicher Intelligenz, die man damit beauftragen kann, Texte jeder Art und zu jedem Thema zu schreiben. Um sie tobt seit Wochen ein ausgewachsener Hype. In der Tat ist es verblüffend, dass die Künstliche Intelligenz (KI) etwas fertig bringt, was bisher allein dem Menschen vorbehalten war: Texte schreiben. Nun mehren sich jedoch die kritischen und nachdenklichen Stimmen: Aktualität und Wahrheitsgehalt von ChatGPT lassen zu wünschen übrig, Quellen sind nicht nachvollziehbar. Wir sprachen mit Ute Schmid, Professorin für Kognitive Systeme an der Universität Bamberg, und erkundigten uns, unter welchen Bedingungen sich die Sprach-KI ChatGPT für den öffentlichen Dienst eignet. Ihr Fazit lautet: Offen sein – aber genau hingucken.
Interview
Prof. Schmid, Sie forschen in den Bereichen Künstliche Intelligenz und Maschinelles Lernen. Ist ChatGPT in seinem jetzigen Entwicklungsstand in der öffentlichen Verwaltung anwendbar?
Prof. Ute Schmid: ChatGPT und andere große Sprachmodelle sind ja noch sehr neu. Für jede Anwendung, so auch für spezielle Anwendungen der öffentlichen Verwaltung, müsste man erstmal sorgfältige Tests durchführen. Überall dort, wo Kommunikation rechtssicher sein muss, wäre ich eher zögerlich. Generell gilt bei dem Einsatz von KI-Technologie in kritischen Bereichen immer, dass der Mensch die letzte Prüfinstanz sein muss.
Warum der Mensch?
Denken Sie zum Beispiel an Dr. Google: Patient*innen geben ihre Symptome in Google ein und kommen dann mit einer fertigen „Diagnose“ zu ihrer Hausärztin. Aber eine Diagnose kann Google natürlich nicht erstellen, es ist eine Suchmaschine und kein Arzt.
ChatGPT liefert nicht die Inhalte einer bestimmten Webseite, sondern fasst viele, im Internet verteilte Informationen zusammen. Auch ChatGPT kann also keine Diagnose stellen. Im Gegensatz zur Suche „per Hand“ fehlt uns zusätzlich sogar die Information über die konkrete Quelle. Der Webseite eines Betroffenenforums würde man vermutlich ja mehr trauen, als einer Seite, die Kristalle und Pendel verkauft.
Wie ChatGPT weiterentwickelt wird, weiß niemand. Aber mal in die Glaskugel geschaut: Welche Potentiale hat die Sprach-KI für die Verwaltung?
Ich denke, dass KI-Systeme zur Sprachgenerierung eine Reihe von Potentialen haben. Beispielsweise könnten mit ChatGPT schnell einfache Mitteilungen und Informationstexte aus Stichworten generiert werden. Die Frage ist jedoch, was man am Ende davon hat. Hat man Zeit gespart? War es persönlicher? Wenn ich jetzt einer Behörde eine E-Mail-Anfrage schreibe, kommt vielleicht eine Standardantwort zurück: „Ihre Anfrage ist eingegangen und wir kümmern uns so bald wie möglich um die Bearbeitung.“ Mit ChatGPT könnte man direkt aus dem Inhalt der Anfrage in der E-Mail eine etwas nettere Antwort generieren. Aber: Braucht man das? Fühlt sich der Bürger dann besser behandelt?
In Kommunikationsteams von Behörden und Universitäten wird bereits diskutiert, ob ChatGPT Beiträge für Social Media schreiben könnte. Was denken Sie?
Ich glaube, dass wir noch viele Anwendungen sehen werden. Manche gut, manche weniger sinnvoll. Ich denke, wir sollten offen für Experimente sein und erst einmal eine Weile beobachten und Erfahrungen sammeln. Neue Technologien bieten neue Möglichkeiten, Erleichterung, Produktivitätssteigerung, bringen aber vielleicht auch unerwünschte sozio-technische Auswirkungen mit sich. Mit einem Taschenrechner kann ich schneller Potenzen ausrechnen als im Kopf. Suchmaschinen unterstützen uns bei der Informationsbeschaffung. Ein KI-Tool wie ChatGPT kann uns helfen, Gebrauchstexte zu erstellen. Allerdings führt man irgendwann auch Dinge ad absurdum, wenn man nur noch Tools nutzt: Von einem KI-System lasse ich mir die Social Media Beiträge schreiben, ein weiteres KI-System nehme ich, um Social Media Beiträge von anderen zu lesen und so weiter und so fort.
Welche Bedingungen müssen aus Ihrer Sicht erfüllt sein, damit der öffentliche Dienst die Sprach-KI einsetzen kann?
Ich denke, dass man zunächst genau beschreiben muss, welche Kommunikationsaufgaben eine bestimmte Behörde hat – nach innen ebenso so wie nach außen, und wie rechtsverbindlich welche Art der Kommunikation sein muss. So ein Prozess wäre auch eine Chance: Die Behörde muss sich die Zeit nehmen zu hinterfragen: Wie kommunizieren wir denn überhaupt mit unseren Bürger*innen? Und wie wollen wir mit ihnen kommunizieren? Wahrscheinlich ist jedoch in vielen Bereichen mit einem Fortschreiben der digitalen Transformation der Verwaltung mehr gewonnen als mit einer Sprachtechnologie.
Ludwig Wittgenstein hat mal notiert: „Die Grenzen meiner Sprache sind die Grenzen meiner Welt“. Wenn man das auf die Sprach-KI überträgt, hemmt ihre Nutzung, vorsichtig ausgedrückt, nicht die persönliche Entwicklung? Denn die KI schreibt ja nicht nur für mich, sie nimmt mir ja im Grunde auch das Denken ab. Ich muss mir vor dem Schreiben nicht mehr Gedanken darüber machen, was ich sagen will.
Das finde ich eine wunderbare Frage. Und ich glaube, da werden verschiedene Menschen verschiedene Antworten geben. Da gibt es natürlich kein „Richtig“ und kein „Falsch“. Ich denke, es kommt bei all diesen Technologien, egal ob ChatGPT, Rechtschreibkorrektur oder Taschenrechner, sehr darauf an, in welchem Kontext sie stehen.
Nehmen wir als Beispiel den Bereich Schule. Vor Jahrzehnten, bei der Einführung des Taschenrechners ab der 7. Klasse, gab es die Befürchtung, dass die Schüler*innen das Kopfrechnen verlernen würden. Und in der Tat ist es so, dass wir alle zu einem gewissen Teil deutlich weniger gut im Kopfrechnen sind als etwa die Generation meiner Großmutter.
Andererseits wäre es natürlich absurd zu sagen: Man darf keine Potenzrechnung oder Wurzelberechnung mit dem Taschenrechner machen. Und genau an diesem Punkt ist etwas Neues gefragt. Lehrer*innen müssen sich überlegen: Wie vermittle ich die Kompetenz des Wurzelziehens so, dass die Schüler*innen verstehen, was Wurzelziehen bedeutet und wie die Rechenvorschrift im Prinzip funktioniert. Dann kann man Wurzeln mit dem Werkzeug Taschenrechner schneller und korrekter berechnen, aber versteht immer noch, was man da tut. Das gleiche gilt auch für ChatGPT: An welchen Stellen hilft es wirklich? Für welche Bereiche ist es nicht geeignet? Beim Einsatz von KI-Technologien sollte es immer darum gehen, menschliche Kompetenzen zu erweitern und nicht einzuschränken.
Vielen Dank für das Gespräch!
Das Interview führte Diane Schöppe