Wie muss das Bildungswesen auf Chat-GPT reagieren? Ein NZZ-Gastkommentar von Tobias Röhl, Professor für digitales Lernen und Lehren an der PH Zürich.
Digitale Abstinenz ist sicher keine Lösung. Vielmehr müssen wir an den Schulen einen kompetenten Umgang mit den neuen technischen Möglichkeiten finden.
Dass Schülerinnen und Schüler Texte aus dem Internet zusammenstellen und als die eigenen ausgeben können, sind Lehrpersonen mittlerweile gewohnt. Mit geschickt formulierten und individualisierten Fragestellungen oder dem Einsatz von Plagiatsfindern meint man, geeignete Gegenmassnahmen gefunden zu haben.
Mit den Möglichkeiten künstlicher Intelligenz (KI) steht die schulische Aufgabenkultur aber bereits vor der nächsten Herausforderung. Chat-GPT und andere Tools zur automatisierten Texterstellung finden auch für noch so geschickt formulierte und individualisierte Aufgaben eine oftmals plausibel klingende Antwort.
Tools gewinnbringend einsetzen
Was ist nun geboten? Abermals werden Rufe nach technischen Gegenmassnahmen laut. So gibt es bereits erste, ihrerseits auf KI basierende Tools, die erkennen, ob ein Text durch Chat-GPT erstellt wurde. Allerdings hinken derlei Massnahmen den Entwicklungen der «large language models», auf denen auch Chat-GPT basiert, hinterher. Das dahinterstehende Unternehmen, Open AI, arbeitet bereits an der Nachfolgeversion, die noch bessere Ergebnisse verspricht.
Statt sich nun auf dieses technische Wettrüsten einzulassen und auf digitale Abstinenz bei der Bearbeitung von Aufgaben zu pochen, gilt es, sich der neuen digitalen Wirklichkeit zu stellen. Wir leben, arbeiten und lernen in einer Welt, in der Texte und Bilder automatisiert erstellt werden können. Digitale Abstinenz steht unseren Schulen deshalb nicht gut zu Gesicht.
Vielmehr gilt es nun, die Möglichkeiten solcher Tools gewinnbringend zu nutzen. Dies erfordert aber neue Kompetenzen im Umgang mit Informationen. Denn die Antworten, die Chat-GPT auf unsere Fragen gibt, sind zwar oft verblüffend gut, aber eben nicht immer. Teilweise enthalten sie faktische Ungenauigkeiten und logische Irrtümer – oder das System halluziniert Quellenangaben und naturwissenschaftliche Phänomene herbei, die es gar nicht gibt. Und es ersinnt bisweilen Programmcodes, die Menschen aufgrund ihres Geschlechts oder ihrer Ethnie diskriminieren.
Auch ohne solche Fehlleistungen, sind die generierten Texte oft recht konventionell und wenig überraschend. Ihren Gewinn spielen Chat-GPT und Co. dementsprechend vor allem dann aus, wenn kompetente menschliche Autorinnen und Autoren sie nutzen, um im «hybriden» Team aus Mensch und Maschine Texte zu schreiben. Sie können bei der Strukturierung unterstützen, als Ideengeber fungieren oder Stichpunkte und erste Ideen ausformulieren helfen. Auch Dialoge mit fiktiven oder nicht mehr lebenden Personen können simuliert werden.