Wie kann ChatGPT das Lernen verbessern?
Im Vorfeld der bundesweiten KI-Fachtagung nimmt Prof. Doris Weßels von der Fachhochschule Kiel die Chancen und Risiken von generativen KI-Sprachmodellen für den Bildungsbereich in den Blick.
Wie verändert KI das Lernen und Lehren in der Schule? Dieser Frage widmet sich die bundesweite KI-Fachtagung. Auch die hitzige Diskussion über den Umgang mit ChatGPT an Schulen wird in Berlin aufgegriffen. KI-Forscherin Prof. Doris Weßels beleuchtet im Interview die Rolle von generativen KI-Sprachmodellen für das selbstbestimmte Lernen von Schüler:innen und wie Transparenz Täuschungen vorbeugen kann.
Redaktion: Frau Professorin Weßels, die erste Aufregung um ChatGPT hat sich gelegt. Der Chatbot ist im Alltag vieler Menschen angekommen – auch in der Schule?
Prof. Dr. Doris Weßels: Wir müssen uns bewusst machen, dass der Chatbot bisher nur im Alltag einer kleinen Gruppe von Menschen angekommen ist. Eine repräsentative Umfrage, die Dr. Holger Schmidt von der Technischen Universität Darmstadt im Mai dieses Jahres durchgeführt hat, zeigt, dass 62 Prozent der Befragten ChatGPT noch nie benutzt haben und nur 8 Prozent dieses System regelmäßig nutzen. Diese Untersuchung spiegelt zugleich ein starkes Generationengefälle bei den regelmäßigen Userinnen und Usern wider, denn die Altersgruppe von 16 bis 34 Jahre stellt das Gros der Anwenderinnen und Anwender. Allerdings wurden auch nur Personen befragt, die mindestens 16 Jahre alt waren. Wir können aber davon ausgehen, dass es in den jüngeren Altersstufen sehr ähnlich aussieht und in den Schulklassen viele Poweruserinnen und Poweruser sitzen.
Redaktion: Sehen Sie Anzeichen dafür, dass ChatGPT tatsächlich die viel beschworene Bildungsrevolution auslöst?
Weßels: Aus meiner Sicht hat die generative künstliche Intelligenz (KI) eine disruptive Wirkung auf den Bildungsbereich. Diese zeigt sich noch nicht so deutlich, weil wir bei vielen Lehrkräften noch Aufklärungsarbeit leisten müssen. Aktuell fühlen sie sich häufig überfordert und benötigen dringend kontinuierliche Qualifizierungsangebote, um bei diesem, sich sehr dynamisch entwickelnden Thema mithalten zu können. Gelingt uns diese Qualifizierungsoffensive nicht, droht die Gefahr, dass nach dem Motto „Business as usual“ verfahren wird.
Auf der Seite der Lernenden hat sich leider vielfach der Eindruck verfestigt, dass der Einsatz von ChatGPT und anderen generativen KI-Anwendungen verboten sei. Daher wird nicht mit offenen Karten gespielt und Lehrkräfte können oder wollen davon nichts wissen. Diesen gordischen Knoten müssen wir lösen, indem wir konsensfähige und bildungszielorientierte Regelungen für beide Seiten formulieren und damit Transparenz herstellen.
„Eine große Chance sehe ich darin, dass generative KI als Lerntutor agieren und das selbstbestimmte Lernen unterstützen kann.“
Prof. Dr. Doris Weßels
Redaktion: Ihr Vortrag bei der bundesweiten Fachtagung beschäftigt sich mit den Chancen und Risiken von generativen KI-Sprachmodelle für das Lehren und Lernen. Können Sie beides anhand konkreter Beispiele gegenüberstellen?
Weßels: Eine große Chance sehe ich darin, dass generative KI als Lerntutor agieren und damit das selbstbestimmte und autonome Lernen unterstützen kann. Gleichzeitig fördert diese Möglichkeit die Bildungsgerechtigkeit, indem Kinder aus nicht akademisch gebildeten Elternhäusern einen alternativen Support durch generative KI-Anwendungen erhalten können. Eine zentrale Voraussetzung hierfür ist der DSGVO-konforme und kostenlose Zugang zu diesen Systemen, der im Bildungsbereich aktuell noch nicht flächendeckend besteht. Diese Anstrengungen müssen wir deutlich intensivieren. Glücklicherweise gibt es hierzu bereits einige Lösungsanbieter wie fobizz oder schulKI, die derartige Zugänge für Schulen bieten. Im Idealfall sollte es allen Lernenden immer möglich sein, ChatGPT mit dem jeweils aktuellen Sprachmodell zu nutzen, um eine möglichst hohe Faktentreue bei der Textgenerierung zu erzielen und die Gefahr von Halluzinationen – das heißt plausibel klingende Unwahrheiten – zu reduzieren. Damit ChatGPT die Rolle des Lehrenden und Quizmasters übernehmen kann, genügt dann eine einfache Eingabe, auch Prompt genannt, durch die Schülerin oder den Schüler.
ChatGPT als Lerntutor: So kann ein beispielhafter Prompt aussehen
Du bist mein Trainer für Kommaregeln. Formuliere 10 Fragen als Multiple-Choice-Fragen der Reihe nach und warte meine Antwort ab, bevor Du die nächste Frage stellst. Wenn ich meine Antwort gegeben habe, teile mir mit, ob meine Antwort richtig oder falsch war. Nur für eine richtige Antwort bekomme ich einen Punkt und einen fröhlichen Smiley. Wenn die Antwort falsch war, zeige mir die richtige Antwort. Am Ende möchte ich meine Gesamtpunktzahl sehen.
Das Beispiel bezieht sich auf den Deutschunterricht, kann jedoch analog für viele Schulfächer übernommen werden.
Die Gefahren dieser Technologie speziell auch beim Einsatz in der Lehre sind vielfältig und müssen detailliert analysiert und didaktisch flankiert werden, um die Balance von gewünschten Potenzialen und akzeptierten Risiken zu ermitteln. Ich möchte hier zwei Beispiele für risikoreiche Entwicklungen nennen: Zum einen kann es den sozialen Austausch innerhalb der Lerngruppe und zwischen den Lernenden und der Lehrkraft einschränken, wenn individuelle KI-Tutorsysteme intensiv genutzt werden. Zum anderen können diese Technologien die Entwicklung einer Online-Sucht begünstigen. Gerade bei jüngeren Schülerinnen und Schülern können schnell emotionale Bindungen zu KI-Systemen entstehen. Diese Gefahren sehen wir derzeit leider auch bei Erwachsenen, unter anderem bei den KI-Chatbots von Replika, die weltweit von zehn Millionen Menschen genutzt und bei denen sogar Ehen mit Avataren geschlossen werden. Daher müssen wir möglichst früh im Bildungsbereich die Digital- und Medienkompetenz fördern. Dazu gehört auch die Aufklärung über Chatbots, ihre Funktionsweise als Software und ihre Limitationen. Wichtig sind die Erkenntnis und das Bewusstsein, dass KI nicht als Ersatz für menschliche Beziehungen dienen kann.
„Wenn es uns gelingt, Lehrkräften die Vorteile für ihre eigene Arbeit aufzuzeigen, scheint der Schalter schlagartig umgelegt zu sein.“
Prof. Dr. Doris Weßels
Redaktion: Viele Lehrkräfte sind durch ChatGPT verunsichert und reagieren mit Verboten. Wie lässt sich diese abwehrende Haltung aufbrechen? Wie kommen wir zu einem produktiven Umgang mit der neuen Technik?
Weßels: Wenn es uns gelingt, Lehrkräften die Vorteile für ihre eigene Arbeit aufzuzeigen, werden Schulungsangebote für den Einsatz generativer KI zu einem Selbstläufer. Nach meinen Erfahrungen zeigt sich dann sehr schnell, dass ein tiefergehendes Interesse an diesen Systemen besteht – inklusive der didaktischen Möglichkeiten. Wenn die ersten Berührungsängste abgebaut sind und das persönliche Erleben der Systeme stattfindet, empfinden die meisten Menschen eine große Faszination und sind in ihrer Experimentierfreude kaum zu bremsen. Ich kann aus mehrjährigen Erfahrungen mit meinen KI-Workshops und KI-Schreibwerkstätten diesen Effekt nur immer wieder betonen. Wenn es uns gelingt, die Menschen zu einem persönlichen Ausprobieren zu ermutigen, scheint der Schalter schlagartig umgelegt zu sein.
Redaktion: Wie kann ChatGPT sinnvoll im Unterricht eingesetzt werden?
Weßels: Meine Empfehlung lautet, Tools wie ChatGPT vorrangig als Assistenz- und Tutorsysteme zu betrachten und sie entsprechend einzubinden. Wichtig ist in diesem Zusammenhang auch der Mut zu einem explorativen Vorgehen, da wir aktuell nicht auf ein sicheres Netz von Erfahrungswerten beim Einsatz generativer Technologien im Bildungsbereich zurückgreifen können. Diese experimentierfreudige und agile Haltung müssen wir fördern, was auch den Leitungsebenen im Bildungsbereich bewusst sein muss.
Damit sowohl Lehrende wie auch Lernende das jeweilige Leistungspotenzial inklusive der Limitationen einzelner Tools bewerten können, bedarf es einer kontinuierlichen Weiterbildung der Lehrenden. So können diese ihr Wissen anschließend in den Unterricht einbinden und an die Lernenden weitergeben. Das ist eine Herkulesaufgabe. Daher habe ich bei der Anhörung im Bundestagsauschuss für Bildung, Forschung und Technologietransfer am 26. April 2023 eine Taskforce für KI-Bildung empfohlen und hoffe sehr, dass wir zeitnah eine derartige Bildungsoffensive erleben, um in Deutschland endlich die Aufholjagd zu starten.
„Täuschungen lassen sich reduzieren, wenn Anreize für Transparenz geschaffen werden.“
Prof. Dr. Doris Weßels
Redaktion: Worauf sollten Lehrkräfte achten, wenn sie in ihren Aufgabenstellungen generative KI-Sprachmodellen zulassen?
Weßels: Bei prüfungsrelevanten Aufgabenstellungen im Unterricht ist selbstverständlich darauf zu achten, dass die Lernenden ihre intellektuelle Eigenleistung auch klar erkennbar zeigen können. Wenn bei einer Aufgabenstellung nur Wikipedia-Wissen abgefragt wird und diese von ChatGPT bereits im ersten Versuch formvollendet beantwortet werden kann, passt die Aufgabenstellung offensichtlich nicht mehr in die Zeit. Gleichzeitig gilt, dass Aufgabenstellungen mit dem Ziel der reinen Wissensreproduktion auch schon vor ChatGPT von vielen Lernenden als Auswendiglernen kritisiert wurden und nicht sonderlich motivierend waren.
Redaktion: Wie können Kompetenzen in Zeiten von ChatGPT noch zeitgemäß geprüft werden?
Weßels: An dieser Stelle möchte ich eine Gegenfrage formulieren: Welche Kompetenzziele streben wir denn an? Diese Frage stellt für mich die zentrale Herausforderung im generativen Zeitalter dar. Haben wir diese beantwortet, können wir im zweiten Schritt die Prüfungsformen diskutieren, aber bitte nicht den zweiten vor dem ersten Schritt tun.
Weiterlesen: Der OECD Lernkompass 2030: Welche Kompetenzen brauchen Schüler:innen?
Der OECD Lernkompass 2030 steht im Fokus der diesjährigen Bildungskonferenz der Akademie für Innovative Bildung und Management. Die wichtigsten Kernaussagen haben wir hier für Sie zusammengefasst.
Redaktion: Was empfehlen Sie Lehrkräften, die hinter einer Hausaufgabe oder einem Referat die Mithilfe einer KI vermuten?
Weßels: Wenn Lehrkräfte vermuten, dass getäuscht wurde, müssen sie auch ihr eigenes Vorgehen selbstkritisch reflektieren und sich fragen, wie es dazu kommen konnte. Sicherlich gibt es darauf unterschiedliche Antworten. Grundsätzlich gilt aber, dass sich Täuschungen reduzieren lassen, wenn Anreize für Transparenz geschaffen werden. Es wäre zum Beispiel möglich, den Einsatz von KI explizit zu erlauben, solange die Lernenden ihn entsprechend kennzeichnen. Die Aufgabe könnte anschließend positiv bewertet werden, wenn der Tooleinsatz für das Gesamtergebnis förderlich war und es darum ging, digitale Kompetenz zu fördern.
Redaktion: Frau Professorin Weßels, wir danken Ihnen für dieses Gespräch.
Zur Person
Doris Weßels ist Professorin für Wirtschaftsinformatik und Forschungssprecherin Digitalisierung an der Fachhochschule Kiel. Sie vertritt die Schwerpunkte Projektmanagement und Natural Language Processing. Seit 2021 ist sie Mitglied im KI-ExpertLab Hochschullehre. Zum 1. September 2022 hat sie gemeinsam mit ihren Netzwerkpartnern das Virtuelle Kompetenzzentrum „Schreiben lehren und lernen mit Künstlicher Intelligenz“ gegründet. Ihr aktueller Forschungsschwerpunkt richtet sich auf die Bildungsimplikationen der generativen KI.