Lernen mit Künstlicher Intelligenz: "Es wird die sofortige Antwort erwartet"
Wie Lehrkräfte Lernende zur reflektierten und selbstständigen Nutzung von KI begleiten können

Neue KI-Lernhilfen wie der "Study Mode" versprechen personalisiertes Lernen. Doch die Realität im Klassenzimmer ist oft eine andere: Schülerinnen und Schüler erwarten sofortige Lösungen und reagieren frustriert auf didaktische Unterstützung. Der Bildungsforscher Dr. Tim Fütterer erklärt im Interview, warum die Gefahr der Abhängigkeit real ist, welche entscheidende Rolle die Selbstregulation spielt und wie Lehrkräfte KI als wertvolles Werkzeug nutzen können, ohne das eigenständige Denken zu gefährden.
Redaktion: Herr Dr. Fütterer, die großen Anbieter generativer KI-Chatbots, OpenAI und Google, haben spezielle Lernmodi eingeführt und versprechen damit eine neue Ära des personalisierten Lernens. Wie bewerten Sie das tatsächliche pädagogische Potenzial dieser Tools?
Dr. Tim Fütterer: Das ist schwierig zu bewerten, da es noch keine Studien dazu gibt und es schwer einzusehen ist, was technisch wirklich dahintersteckt. Online-Communities deuten darauf hin, dass es sich bei diesen Lernmodi im Kern einfach um gepromptete Systeme handelt. Das würde bedeuten, dass ein fester Prompt dem System vorgibt, wie es reagieren soll, zum Beispiel nach der Art eines sokratischen Dialogs, bei dem die Antwort nicht sofort gegeben, sondern durch Rückfragen erarbeitet wird. Grundsätzlich geht das in die richtige Richtung, weil es das Lernen unterstützen und nicht nur fertige Ergebnisse liefern will.
Die neuen KI-Lernassistenten
Als Reaktion auf die Debatte um den Einsatz von KI im Bildungsbereich haben große Technologieunternehmen spezielle Lern-Modi für ihre Chatbots entwickelt und in den vergangenen Monaten veröffentlicht.
- ChatGPT "Study Mode" (OpenAI): Dieser Modus soll die KI anweisen, sich wie ein Tutor zu verhalten: Statt direkter Lösungen stellt das System gezielt Rückfragen (sokratischer Dialog), fordert zur Reflexion auf und gibt schrittweise Hilfestellungen, um das eigenständige Verständnis zu fördern. OpenAI positioniert dies als Werkzeug für tieferes Lernen.
- "Lernhilfe" in Gemini (Google): Die Funktion soll als personalisierter Lernassistent agieren. Sie kann komplexe Themen in kleinere Schritte zerlegen, Erklärungen an das Verständnisniveau anpassen, Zusammenfassungen erstellen oder das Wissen durch Quizfragen überprüfen. Google bewirbt die Funktion als Unterstützung für selbstgesteuertes Lernen im eigenen Tempo.
Redaktion: Klingt aber nicht so, als sei das für Sie der revolutionäre Schritt, um KI effektiv ins Lernen zu integrieren …
Fütterer: Ich glaube, man kann über drei Wege nachdenken, wie KI und Lernen aktuell verbunden werden. Der erste Weg ist die Optimierung der Performance: Lernende und Lehrende nutzen KI, um bessere, zum Beispiel fehlerfreie Texte zu erstellen. Dabei findet aber oft kein Lerneffekt statt. Der zweite Weg ist der Versuch, klassische Intelligente Tutorielle Systeme (ITS) mit Sprachmodellen nachzubauen. Da bin ich skeptisch, ob das aktuell an die Qualität von ITS herankommt, die von Expertinnen und Experten über Jahre entwickelt werden und ein tiefes Verständnis der jeweiligen Wissensdomäne und des Lernprozesses haben. Hier sehe ich auch die Gefahr der Abhängigkeit, ähnlich wie bei einem Navigationssystem: Es nimmt einem die Orientierungsarbeit ab, aber die Frage ist, ob man am Ende noch selbstständig navigieren kann. Die große Gefahr ist, dass man irgendwann nicht mehr ohne das unterstützende System zurechtkommt. Der dritte und charmanteste Weg wäre, KI zu nutzen, um Lernprozesse und Selbstregulation zu unterstützen – also Kompetenzen zu erwerben, die man dann auch ohne KI im Lernkontext anwenden kann.
Redaktion: Die neuen Lern-Modi der großen KI-Firmen scheinen ja den zweiten Weg, also die Nachahmung von ITS, zu versuchen. Das sehen Sie skeptisch?
Fütterer: Ja, aktuell sehe ich das noch skeptisch, die Entwickler von echten ITS-Systemen hätten da aktuell vermutlich sogar große Skepsis. Es ist extrem aufwendig zu modellieren, wann welche Person welche Art von Unterstützung benötigt. Ein ITS hat ein detailliertes Lernermodell, ein Domänenmodell und ein Tutormodell. Ein großes Sprachmodell beispielsweise hat hingegen kein Meta-Wissen, es reiht nur statistisch wahrscheinliche Wörter aneinander. Aktuell ist ein System wie der "Study Mode" oft nur ein cleverer Prompt, den sich jede Lehrkraft auch selbst erstellen kann. Aber der Trend geht zu Multiagentensystemen, die das verbessern und vereinfachen könnten. Generell schreitet die technische Entwicklung so schnell voran, dass die Hoffnung besteht, dass zeitnah viele kluge KI-Systeme geschaffen werden, die wirklich beim Lernen adaptiv unterstützen und zugleich kosteneffizient sind.
ITS vs. KI-Lernmodus
Intelligentes Tutorielles System (ITS)
- Was es ist: Ein hochspezialisiertes Lernprogramm, das von Expertinnen und Experten für ein eng definiertes Wissensgebiet (zum Beispiel englische Grammatik) entwickelt wurde.
- Wie es funktioniert: Ein ITS basiert auf explizit programmierten Modellen: einem Domänenmodell (tiefes Wissen über das Fach), einem Lernermodell (Analyse des individuellen Wissensstands und Lernfortschritts) und einem Tutormodell (didaktisches Wissen darüber, wann und welche Unterstützung am effektivsten ist). Es ist ein gezielt für den Lernprozess konstruiertes System.
KI-Lernmodus (zum Beispiel "Study Mode")
- Was es ist: Eine Funktion innerhalb eines universellen, großen Sprachmodells (wie ChatGPT), die durch eine vordefinierte Anweisung (einen "Meta-Prompt") aktiviert wird.
- Wie es funktioniert: Der Prompt weist die KI an, sich wie ein Tutor zu verhalten, etwa durch Nachfragen. Das System agiert auf Basis der statistischen Muster in seinen allgemeinen Trainingsdaten und besitzt kein eigenes, explizit für das Thema erstelltes Fach- oder Lernermodell wie ein ITS.
Redaktion: Gutes Lernen erfordert oft eine produktive Anstrengung – das Überwinden sogenannter "kognitiver Stolpersteine". Welche Risiken sehen Sie für die Entwicklung von Problemlösefähigkeiten und Frustrationstoleranz, wenn diese hilfsbereiten KI-Tutoren die Lernpfade "zu glatt" machen?
Fütterer: Das ist eine spannende Frage, mit der wir uns im ASPIRE-Projekt beschäftigen. Der "Worst Case" wäre ein negativer Nebeneffekt, bei dem die Anstrengung des Lernens – das Verstehen, das Verknüpfen, die Kreativität – an die Maschine abgegeben wird. Das Lernen findet dann nicht mehr im Kopf des Lernenden statt. Man kann sich das wie im Fitnessstudio vorstellen: Man lässt die Maschine für sich trainieren und hat selbst nichts davon. Das ist dann reine Performance-Optimierung ohne Lerneffekt. Wir haben beispielsweise eine Studie mit Siebt- und Achtklässlern gemacht. Die Gruppen, die von der KI keine direkten Lösungen zu den Lernaufgaben bekamen, sondern didaktische Unterstützung zur Unterstützung des selbstregulierten Lernens, waren teils richtig genervt und verärgert. Sie haben Sätze geschrieben wie: „Ich habe jetzt keine Lust darauf, gib mir einfach die richtige Lösung." Teilweise haben sie die Arbeit mit dem System einfach abgebrochen.
ASPIRE-Projekt
ASPIRE ist das Akronym für das Forschungsprojekt "Artificial Intelligence and Self-Regulation"(Künstliche Intelligenz und Selbstregulation). Es ist am Hector-Institut für Empirische Bildungsforschung an der Universität Tübingen angesiedelt und wird von der Vodafone Stiftung gefördert. Das Projekt untersucht die Wechselwirkungen zwischen dem Einsatz von KI-Werkzeugen und der Fähigkeit von Schülerinnen und Schülern, ihr eigenes Lernen zu steuern. Zentrale Forschungsfragen sind, welche Selbstregulationskompetenzen für einen sinnvollen KI-Einsatz notwendig sind und wie die Nutzung von KI die Entwicklung dieser Fähigkeiten beeinflusst, aber auch, welche Risiken bestehen.
Redaktion: Das deutet auf eine bereits etablierte Erwartungshaltung hin, dass KI sofortige Antworten liefern muss.
Fütterer: Genau. Das fand ich am interessantesten: Es scheint sich schon eine Gewohnheit etabliert zu haben. Die Schülerinnen und Schüler erwarten die sofortige Antwort, und wenn sie diese nicht bekommen, empfinden sie die notwendige eigene Anstrengung als Last. Besonders Jungen wollten schnell die Antwort haben, während Mädchen die unterstützenden Systeme eher annahmen. Das sind aber nur erste Tendenzen, die in weiteren Studien weiter untersucht werden müssen.
Redaktion: Welche Kompetenzen braucht es, um dieser Entwicklung entgegenzuwirken? Man spricht in diesem Kontext ja oft von "AI Literacy".
Fütterer: Was in vielen Konzepten zur AI Literacy erstaunlicherweise fehlt, aber stark mitgedacht werden muss, ist das Fach- und Inhaltswissen. Wie soll ich etwas kritisch reflektieren, was mir eine Maschine ausgibt, wenn ich selbst keine Ahnung von der Thematik habe? Ich kann nur dann erkennen, dass eine Antwort falsch ist, wenn ich über eigenes Wissen verfüge. Daneben sind Kompetenzen des selbstregulierten Lernens entscheidend – also die Fähigkeit, eigenständig zu lernen und ein Werkzeug wie KI angemessen zu nutzen. Das ist aber auch eine pädagogische Aufgabe der Lehrkräfte, diese Tools sinnvoll einzusetzen und keine Abhängigkeit zu schaffen.
„Kinder zum Lernen zu motivieren, ist keine neue Aufgabe für Lehrkräfte, aber sie wird bedeutsamer, weil die ‘Abkürzungen’ durch KI so attraktiv sind. “
Dr. Tim Fütterer
Redaktion: Welche konkreten didaktischen Strategien können Lehrkräfte anwenden, um Schülerinnen und Schüler zu kompetenten KI-Nutzerinnen und Nutzern zu erziehen – also zu Lernenden, die bewusst entscheiden können, wann ein KI-Tool hilfreich ist und wann es dem Lernprozess im Weg steht?
Fütterer: Wir reden viel mit Lehrkräften und spüren da noch eine große Unsicherheit. Ich würde immer dafür plädieren, Mut zu haben und die Tools pädagogisch sinnvoll im Unterricht zu nutzen, statt sie zu verbieten. Die Realität ist: KI wird nicht verschwinden, im Gegenteil, ihre Präsenz nimmt zu. Es ist sinnvoll, sie einzubinden, aber das hat viel mit einer grundsätzlichen Haltung zum Lernen zu tun. Kinder zum Lernen zu motivieren, ist keine neue Aufgabe für Lehrkräfte, aber sie wird bedeutsamer, weil die "Abkürzungen" durch KI so attraktiv sind. Es braucht einen Diskurs im Klassenzimmer über den Wert des Lernens an sich.
Redaktion: Wie könnte dieser Diskurs konkret aussehen?
Fütterer: Ich finde, dieser Dialog sollte weniger technisch, sondern vielmehr werteorientiert geführt werden. Es geht darum, gemeinsam mit den Schülerinnen und Schülern zu reflektieren, was Lernen eigentlich bedeutet und welchen Wert, auch motivational, Anstrengung hat. Eine gute Leitfrage könnte sein: „Wann habe ich wirklich etwas verstanden – und wann habe ich nur eine Antwort kopiert?“
Lehrkräfte könnten im Unterricht gezielt Situationen schaffen, in denen Lernende beide Erfahrungen machen – also einerseits sehen, wie hilfreich KI bei der Ideenfindung oder Strukturierung sein kann, andererseits aber auch erleben, dass tiefes Verstehen erst durch eigene Denkarbeit entsteht, was wiederum sehr motivierend sein kann, wenn man die Erfahrung gemacht hat, dass man nach Anstrengung etwas besser verstanden hat. Wir sprechen in diesem Kontext von Meta-Motivation. Dafür müssen den Lernenden aber auch die Beziehungen zwischen Anstrengungen und Lernerfolg beispielsweise durch Feedback deutlich gemacht werden.
Wichtig ist, dass dieser Diskurs dialogisch bleibt. Lehrkräfte können dabei als Modell fungieren und ihre eigene Haltung transparent machen („Ich nutze KI, um mich inspirieren zu lassen, aber das Denken nimmt sie mir nicht ab“) und Lernende dazu ermutigen, über ihren eigenen Lernprozess zu sprechen. Wenn Schülerinnen und Schüler verstehen, dass Fehler, Umwege und Frustration Teil des Lernens sind, dann besteht die Hoffnung, dass KI-Abkürzungen auch ein Stück ihrer Verlockung verlieren.
Redaktion: Wenn KI die Wissensvermittlung und das Feedback immer stärker übernimmt, wie sieht dann die Rolle der Lehrkraft aus?
Fütterer: Die Sorge vor einem Arbeitsplatzverlust sehe ich bei Lehrkräften nicht so stark. Die Rolle als Gestalterin und Gestalter sozialer Interaktion wird nach wie vor, vielleicht sogar noch stärker, bedeutsam. Das haben wir schon in der Covid-Zeit gesehen. Ich würde Lehrkräften raten, die positiven Potenziale zu erkennen: Wir reden seit Jahrzehnten davon, dass wir adaptiven Unterricht und individuelles Feedback wollen. In der Praxis hat dafür oft die Zeit gefehlt. KI hat hier die große Chance, dass personalisiertes Lernen wirklich stattfinden kann. KI kann den Arbeitsalltag von Lehrkräften erleichtern, indem bei der Erstellung von Aufgaben und Assessments unterstützt wird. Die Lehrkräfte werden dadurch entlastet und können sich stärker auf die soziale Interaktion und die Initiierung, die Begleitung und das Monitoring von Lernprozessen konzentrieren.
Redaktion: Wenn eine Schulleitung morgen eine schulinterne Fortbildung zum Thema "Umgang mit den neuen KI-Lernhilfen" planen würde, was wäre aus Ihrer Sicht die zentrale Botschaft, die dort vermittelt werden muss?
Fütterer: Ich glaube, es wären zwei Kernbotschaften. Die erste ist: Mut haben, Dinge auszuprobieren und auch durch "Trial and Error" herauszufinden, was funktioniert, anstatt Berührungsängste vor neuen Technologien zu haben. Die zweite Botschaft ist: Qualität vor Quantität. Man sollte KI nicht einsetzen, nur weil sie verfügbar oder gerade angesagt ist, sondern nur dort, wo es didaktisch Sinn ergibt. Und dort, wo man sie einsetzt, sollte man es richtig machen: gemeinsam mit den Schülerinnen und Schülern und mit dem klaren Ziel, das Lernen zu unterstützen und nicht nur eine Abkürzung zu bieten.
Redaktion: Herr Doktor Fütterer, wir danken Ihnen für dieses Gespräch.

Zur Person
Dr. Tim Fütterer ist wissenschaftlicher Mitarbeiter am Hector-Institut für Empirische Bildungsforschung an der Universität Tübingen. Er forscht an der Schnittstelle von Unterrichtsqualität, Digitalisierung und den psychologischen Auswirkungen von Künstlicher Intelligenz auf Lernprozesse. Sein aktueller Forschungsschwerpunkt liegt auf dem Zusammenspiel von KI, Unterrichtsqualität, der Selbstregulation von Schülerinnen und Schülern sowie adaptiven Onlinefortbildungen für Lehrkräfte.





