Was ist ChatGPT?
ChatGPT ist der Prototyp eines Chatbots, der auf maschinellem Lernen beruht. Er analysiert Texte aus verschiedenen Quellen und kann selbst Texte erzeugen. Entwickelt wurde er von dem US-amerikanischen Unternehmen OpenAI. Der Chatbot ist rein textbasiert und antwortet den Nutzenden in einer chatähnlichen Konversation. Durch das dialogische Format kann die Software weiterführende Fragen beantworten und Fehler eingestehen – das Tool produziert jedoch auch inkorrekte Informationen. Laut Open AI soll ChatGPT durch vermehrte Nutzung akkurater werden.
ChatGPT wurde im November 2022 veröffentlicht, ist auch auf Deutsch verfügbar und aktuell kostenlos. Um ChatGPT nutzen zu können, ist bei der Registrierung allerdings die Angabe einer E-Mail-Adresse und einer Telefonnummer vorgeschrieben. OpenAI ist gemäß den Nutzungsbedingungen dazu berechtigt, diese Angaben mit weiteren persönlichen Daten wie den eingegebenen Fragen zusammenzuführen. Das Unternehmen kann diese Daten darüber hinaus für eine Vielzahl von Zwecken verwenden und an Dritte weitergeben.
Die Debatte um Künstliche Intelligenz beschäftigt die Bildungslandschaft schon seit einer Weile. Bisher jedoch vor allem in Form von Utopien und Dystopien – Zukunftsmusik einer für den praktischen Bildungsalltag noch nicht akut relevanten Technologie. Glauben Sie, dass die Entwicklung von ChatGPT den Diskurs nun verändert hat? Müssen wir bezüglich des Einflusses von KI auf den Bildungsbereich jetzt andere Fragen stellen?
Tim Kantereit: Bis Ende November habe ich tatsächlich gedacht, dass KI in der Bildung eine starke Zukunftstechnologie ist, die vielleicht so in zehn, zwanzig Jahren wirklich aufkommt. Im Privatleben ist sie ja auch relativ unbemerkt geblieben, wird in Navigationssystemen, zur Spracherkennung, Bilderkennung und so weiter schon genutzt. Aber das sind sogenannte "schwache KIs", die da im Hintergrund laufen, das heißt, sie ahmen noch nicht menschliches Handeln oder Empfinden nach. Auch ChatGPT ist nach dieser Definition eine schwache KI, aber sie ist schon überraschend gut, was die sprachliche Ausgabe angeht.
Doris Weßels: Sprache ist ein Machtinstrument, und daher müssen wir dringend das Bewusstsein für diese neue Schlüsseltechnologie sowohl bei den Lehrenden wie auch bei den Lernenden schärfen und benötigen genau diesen Diskurs im Umgang mit KI-Technologien. Das hat ChatGPT auf einen Schlag geschafft. Ein Kollege hat mir von einem hundertfachen Zeitgewinn berichtet, den er nun bei bestimmten Aufgabenstellungen hat.
Sarah Genner: Die Tatsache, dass es da gefühlt wirklich eine Gesprächspartnerin oder einen Gesprächspartner gibt, mit der oder dem man sich austauschen kann und Rückfragen stellen kann und dass die Antworten erstaunlich gut sind, hat viele Personen im Bildungswesen echt aufgeschreckt. Ich nehme auch veränderte Einschätzungen wahr, sei es nun im Grundschul- oder im Hochschulbereich. Dabei habe ich das Gefühl, dass die Hochschulen und Universitäten nervöser sind als die Grundschulen, weil sich hier erstmal die Frage stellt: Inwieweit kann man das überhaupt einsetzen? Haben die Kinder schon die Kompetenzen, das entsprechend anzuwenden?
Welche Faktoren spielen neben der Medienkompetenz für den tatsächlichen Einfluss von ChatGPT noch eine Rolle?
S.G.: Wie man mit dem Entstehen einer solchen Anwendung als lehrende Person umgeht, ist auch Sache der Persönlichkeit – also ob man aus pädagogisch-didaktischer Sicht einen spielerischen Zugang hat und sich sagt: "Ja, wir setzen die Tools mal ein, wir probieren das aus, gucken, was die können und diskutieren das im Unterricht." Das bedeutet ja nicht, dass die Anwendung dann bei Prüfungen zugelassen wird. Eher, dass ich Aufgaben für zuhause anpasse, ich etwas von ChatGPT schreiben und den Text dann von Schülern und Schülerinnen korrigieren lasse. Oder sie sollen Hinweise finden, woran man erkennen könnte, dass dies eine Maschine geschrieben hat.
T.K.: Sam Altman, der Gründer von Open AI, die ChatGPT entwickelt haben, bezeichnet die Anwendung als ein "E-Bike für das Gehirn." Den Gedanken kann ich gut nachvollziehen. Man sitzt davor und tippt irgendwas ein und schwupps, schon kommt das Denken durch den Input in Gang, wird also beschleunigt. Nur irgendwann kommt man immer an den Punkt, wo es dann nicht mehr weitergeht, wo ChatGPT auf einer oberflächlichen Ebene hängen bleibt und wo man doch nur mit dem eigenen Denken vorankommt.
Kann man diesen "Denk-Beschleuniger" denn so mir nichts dir nichts im deutschen Lehralltag integrieren?
D.W.: Uns Deutschen sagt man ja die "German Angst" im Umgang mit solchen Technologien nach. Und ich merke schon, dass die staatliche Hochschullandschaft sehr durch Regeln und Prozesse gesteuert wird. Wenn wir in Prüfungsordnungen oder Akkreditierungsprozessen etwas ändern wollen, wird alles dreißigmal hin und her diskutiert und ganz viele Menschen müssen mitentscheiden. Und jetzt kommt eine Technologie, die so schnelllebig ist und die uns so dazu zwingt, uns selbst und unsere Prozesse sehr schnell anzupassen und neu auszurichten. Diese Adaptionsfähigkeit und Flexibilität zu beweisen, ist eine wirklich große Herausforderung. Es gibt auch Zweifler, die sagen, dass wir es im Bildungsbereich nie schaffen werden, nur ansatzweise Schritt zu halten oder kompetent damit umzugehen.
Frau Genner, wie offen sind denn Schweizer Schulen gegenüber der Entwicklung, dass mit Technologien wie Chat GPT auch Techkonzerne in der Schule eine noch größere Rolle spielen?
S.G.: Tendenziell wahrscheinlich offener als deutsche. Ich nehme kein Land in der Welt wahr, das führender wäre zu Themen rund um Datenschutz oder in der Kritik an Big-Tech-Unternehmen als Deutschland. Also ich glaube, da hat Deutschland wirklich eine gesonderte Stellung – und zwar im Positiven wie auch vielleicht im Sich-ein-bisschen-selbst-im-Weg-Stehen. In Datenschutzfragen nehme ich die Schweiz demgegenüber deutlich pragmatischer wahr.
T.K.: Der Datenschutz ist auch bei ChatGPT in der Tat ein großes Problem. Es handelt sich nun einmal um eine amerikanische Softwarefirma, und die Schülerinnen und Schüler brauchen eine E-Mail-Adresse und eine Telefonnummer, um sich anzumelden. Dazu kann ich sie als Lehrer natürlich nicht verpflichten. Ich kann nur sagen: "Ich habe hier einen Account und ich stelle hier einen Rechner hin. Wenn ihr Hilfe braucht, könnt ihr ChatGPT fragen." Oder die Schüler haben schon einen Account und können diesen dann auch nutzen. Nur ist die Situation hier wie anfänglich mit dem Smartphone: Einige haben es und können es im Unterricht nutzen, andere nicht. Wie soll man mit diesem Ungleichgewicht umgehen?
Kommen wir trotzdem nochmal zu den inhaltlichen Fragen rund um die Funktionsweisen von ChatGPT zurück: Welche neuen Potenziale ergeben sich für den Bildungsbereich?
S.G.: ChatGPT muss aus einer wissenschaftlichen Perspektive, aus einer sprachwissenschaftlichen, aber eben auch aus einer technischen Perspektive erst einmal begeistern. Man sollte versuchen, zu verstehen: Wie funktioniert das? Wie sind diese Systeme trainiert worden, mit welchen Daten? Und dann sollte man auch die ethischen Fragen diskutieren: Ist es okay, wenn man Trainingsdaten benutzt? Also gerade bei den KI-Anwendungen für Bilder wurde das ja ganz groß diskutiert. Ist es okay, wenn man eine Maschine wie Dall-E mit Dalí-Bildern trainiert und die Maschine dann ein Dalí-ähnliches Bild ausspucken kann? Ist es im Sinne des Urheberrechts in Ordnung, wenn man die Werke von Künstlern und Künstlerinnen nimmt und sie dann als Grundlage verwendet? Das sind auch spannende Diskussionen, die man an Hochschulen und Universitäten führen kann.
Nur wie gehen wir mit der Bewertung der guten, alten Hausarbeit um, die jetzt möglicherweise ununterscheidbar von ChatGPT verfasst wird?
S.G.: Die klassische schriftliche Hausarbeit zu einer Fragestellung, bei der man vielleicht nicht mit wahnsinnig vielen wissenschaftlichen Quellen arbeiten und die nur einigermaßen sinnvoll klingen muss, das wird natürlich schwierig. Aber solche Aufgabenstellungen zeugen ohnehin nicht von wirklich gutem wissenschaftlichem Arbeiten. Die Quellenlage ist wichtig, dass man richtig und sinnvoll zitiert
T.K.: ChatGPT herauszufiltern kann man als Lehrkraft tatsächlich üben. Mal ein Beispiel: Im Geografieunterricht zum Thema Vulkanismus lautet die Aufgabenstellung: "Schreibe einen Text zum Thema Vulkanismus, in dem Vor- und Nachteile von Vulkanismus auf die umliegenden Gebiete am Beispiel des Vesuv erörtert werden." Dann schreibt GPT diesen Text. Ich bitte die KI daraufhin, es wie ein Schüler zu schreiben. Die wesentlichen Punkte sind danach aber immer noch dieselben und der Wortlaut ist an den Stellen, wo die wesentlichen Punkte, also die Vor- und Nachteile, auftauchen, immer noch der gleiche. Dann kann man es noch in einen Dialog umschreiben lassen: Also eine Journalistin interviewt einen Menschen vor Ort, der dort lebt. In der Version entstehen viele Füllwörter, aber die harten Fakten klingen wieder genauso wie die aus dem Fließtext.
Nur wird ChatGPT ja mit der Zeit besser und smarter werden. Lauern perspektivisch darin doch ernsthaftere Gefahren für die Bildungswelt?
D.W.: Das kann man so pauschal nicht sagen. Wir wissen, dass Tools sich rasant weiterentwickeln und das, was wir jetzt diskutieren, eigentlich nur eine Momentaufnahme ist. Wir reden heute über ChatGPT in der Version vom 9. Januar 2023. Am 30. November 2022 ist die Anwendung herausgekommen, dann gab es zwei Wochen später ein neues Release und seitdem nochmal eins. Es gibt außerdem zuhauf Ankündigungen, wohin sich das Teil entwickeln und was alles passieren soll – zuletzt etwa von Microsoft. Wir sind Getriebene dieser Entwicklung. Es werden noch andere Tools und andere Werkzeuge kommen von Google und Co. Wir wissen noch nicht, wie sie aussehen, was sie bieten und wie wir selber darauf reagieren werden, ob wir das hier in der Runde für ein tolles Tool halten oder nicht. Daher ist unsere Akzeptanz ganz maßgeblich entscheidend dabei, wie sich solche Tools entwickeln werden.
D.W.: Ich kann mir heute zum Beispiel nicht vorstellen, dass man bei Grundschülern auf das handschriftliche Schreiben komplett verzichtet. Vielleicht braucht man das aber in ein paar Jahren nicht mehr. Vielleicht kann man das handschriftliche Schreiben bei Grundschülern dann wirklich ad acta legen. Bloß im Augenblick sprengt es aufgrund meiner Sozialisation meine Vorstellungskraft.
Sollte man beim Versuch, auf technologische Entwicklungen zu reagieren, das System Schule dann doch nicht zu rasant umkrempeln?
S.G.: Ich persönlich bin wirklich keine Bildungsrevolutionärin. Ich halte nichts davon, zu sagen: "Mit KI braucht es jetzt keine Schulen mehr." Übrigens dachten wir sowas ja schon einmal, als das Internet erfunden wurde. Ich glaube, es braucht Lehrpersonen, und ich glaube, es braucht Lehrpersonen, die sich mit der Welt, wie sie heute ist, auseinandersetzen. Es ist eine Welt mit ChatGPT und ähnlichen Tools, und Lehrkräfte sollten bereit sein, dafür Raum zu schaffen. Hierfür braucht es Flexibilität im Stundenplan, vielleicht nur so zwei Stunden pro Woche oder auch einen halben Tag pro Monat, wo intrinsisches Lernen und Lehren stattfinden kann und Themen rund um die digitale Gesellschaft gesetzt werden.
D.W.: Ja, das war uns allen bewusst, dass die Rolle des Lehrenden oder der Lehrenden sich ändern wird. Wir werden eher Lernbegleiter oder Coaches für eine projektorientierte Lehr- und Lernform. So was wie "Problem-based learning", wo wir uns eine reale Aufgabenstellung vornehmen und überlegen, wie man die lösen kann. Welche Tools braucht man, welche Techniken braucht man?
Und was braucht es, damit Lehrende auf eine flexiblere Lehr- und Lernkultur gut vorbereitet werden können?
T.K.: Plattformen, die den Austausch zwischen Lehrkräften ermöglichen. Denn wir stehen alle vor einer neuen Technologie. Es gibt vielleicht einige, die schon ganz viel ausprobiert haben und als Pioniere dastehen oder es gibt natürlich auch Menschen wie Doris Weßels, die sich schon jahrelang mit KI auseinandersetzen. Diese Personen können als Expertinnen und Experten für KI andere informieren. Aber die Lehrkräfte in Schulen oder auch in Hochschulen, die müssen erst einmal den Raum kriegen, die Tools auszuprobieren und ihre eigenen Erfahrungen damit zu sammeln, um die Angst davor zu verlieren.
Wie kann so ein Austauschrahmen für Lehrende und auch Lernende konkret aussehen?
S.G.: Das Format der Barcamps, auch "Unkonferenz" genannt, finde ich sinnvoll. Die Teilnehmenden bringen ihre Themen ein und dann werden Slots definiert. Man sollte ohnehin mehr machen in der Weiterbildung von Lehrpersonen untereinander. Öde Konferenzen werden oft bespielt von der Schulleitung oder von irgendwelchen Bildungsbehörden. Stattdessen sollten sich Teilnehmende unkompliziert selbst einbringen können. Außerdem muss den Lehrenden die Gelegenheit gegeben werden, mehr intrinsisches Lernen und Lehren in die Schulen zu bringen. Also das heißt, dass Lehrpersonen manchmal auch etwas außerhalb des Lehrplans platzieren können. Vielleicht interessieren sie sich für japanische Kalligrafie oder für irgendetwas, womit niemand gerechnet hätte. Und dann würden sie so mal eine halbe Stunde oder Stunde in Form einer Barcamp-Session darüber reden. Oder auch Schüler und Schülerinnen, die vielleicht YouTuber sind und darüber berichten, was für Lehrende wiederum wichtige Einblicke sein können.
Kann man ChatGPT als Tool sogar dazu nutzen, solche Austausch- und Kreativprozesse zu gestalten?
D.W.: Wir haben jetzt ja vorwiegend über KI-generierte Texte gesprochen. Aber mit diesen Techniken lassen sich auch Bilder, Videos und Musik generieren. Wenn ich also ein Thema bearbeiten will, dann kann ich mir zu dem Text passende Bilder generieren lassen. Das heißt, ich kann sehr individualisiert lernen. Ich kann Themen so auch sehr schnell multimodal bearbeiten, was ja in vielerlei Hinsicht Potenzial hat. Es fördert meine Kreativität. Wir haben im Kunstunterricht gemalt und wir haben im Deutschunterricht Aufsätze geschrieben. Und nun kann man mit dieser Technologie Schulfächer verbinden. Wir können immer, wenn wir Veröffentlichungen machen oder Vorträge halten oder uns vielleicht irgendwas aneignen wollen, unser Skript erstellen und dazu Bildchen generieren.
T.K.: Der notwendige Dialog kann auch mit ChatGPT selbst stattfinden. Also nicht einfach einen Prompt einzugeben und sofort ein Ergebnis zu erhalten, sondern sich mit der KI auseinanderzusetzen, über ein Problem in den Diskurs zu gehen. Denn: Wenn ich eine Frage habe und die Frage am Computer formuliere, also mir die Zeit nehme, diese Frage einzutippen, dann beantworte ich sie mir im Kopf eigentlich schon selbst. Die Antworten, die dann kommen, kann ich gleich auswerten. Ich glaube, es liegt daran, dass man sich die Zeit nimmt, diese Frage einzugeben. Wenn man das auf Papier machen würde, würde man vielleicht den gleichen Effekt haben. Das Schöne ist nur, dass man eine Antwort bekommt. Jedes Mal, wenn man eine Frage hat, weiß man eigentlich schon eine mögliche Antwort. Aber man weiß nicht, ob das eine gute Antwort ist. Und deswegen wünscht man sich, dass irgendjemand kommt und die perfekte Antwort liefert. Aber die KI macht das auch nicht. ChatGPT gibt nicht die perfekte Antwort, sondern eine mögliche Antwort. Und damit kann man dann weiterarbeiten.
Das Interview führte Nina Heinrich.