Umgang mit KI im Unterricht: "Denken kann ich nur mit dem Wissen, was ich selber im Kopf habe"
Prof. Dr. Katharina Scheiter über Mythen, Risiken und Chancen von Künstlicher Intelligenz in der Schule.

Die rasante Entwicklung künstlicher Intelligenz verunsichert Schulen, eine wissenschaftlich fundierte Einordnung fehlt. Um diese Lücke zu schließen, hat das Bundesministerium für Bildung und Forschung eine umfassende Handreichung in Auftrag gegeben, die den Stand der Forschung bündelt. Die leitende Autorin, Prof. Dr. Katharina Scheiter, spricht im Interview über hartnäckige Mythen, die wahre Gefahr des "Deskilling" und die neue Rolle der Lehrkraft als "Dirigentin" eines KI-gestützten Lernorchesters.
Redaktion: Frau Professorin Scheiter, in einer neuen Handreichung für das Bundesministerium für Bildung und Forschung (BMBF), an der Sie maßgeblich mitgearbeitet haben, räumen Sie mit vielen Mythen rund um die KI in der Schule auf. Wenn Sie heute mit Lehrkräften und Schulleitungen sprechen, welches ist aus Ihrer Sicht das aktuell größte und hartnäckigste Missverständnis, wenn es um den produktiven Umgang mit KI geht?
Prof. Katharina Scheiter: Vermutlich ist es immer noch die Idee, dass eine KI nach der ersten Interaktion sofort das perfekte Ergebnis liefert. Und wenn sie das nicht tut, neigen viele dazu, direkt aufzugeben. Ich glaube, die Vorstellung, dass wir mit einer KI in einen längeren, von Fehlerhaftigkeit gekennzeichneten Interaktionsprozess einsteigen müssen – dass wir nachfragen, nachprompten und auf Fehler hinweisen müssen –, dieses grundsätzliche Verständnis fehlt bei vielen Lehrkräften noch. Sie sagen sich: "Wenn Künstliche Intelligenz mir nicht sofort im ersten Schritt die richtige Lösung liefert, erscheint die Nutzung wenig sinnvoll." Das wird dann manchmal auch zu einer Möglichkeit von heimlichem Widerstand, sich damit weiter auseinanderzusetzen.
Handreichung "Künstliche Intelligenz in der Schule:
Eine Handreichung zum Stand in Wissenschaft und Praxis" wurde im März 2025 vom Bundesministerium für Bildung und Forschung (BMBF) herausgegeben. Die Forschungssynthese bietet einen umfassenden Überblick zum aktuellen Forschungsstand rund um KI in der Schule, unterzieht gängige Befürchtungen und Mythen einem Faktencheck und gibt auf Basis eines intensiven Austauschs zwischen Wissenschaft und Schulpraxis eine evidenzbasierte Orientierung für Lehrkräfte und weitere Akteure im Bildungswesen.
Redaktion: Diese Unsicherheit kommt vielleicht auch daher, dass sich die Rolle der Lehrkraft durch KI in vielerlei Hinsicht verändert. Die Handreichung betont, dass Lehrkräfte zentrale Akteure bleiben. Wie genau verschiebt sich die Kernaufgabe, wenn KI die reine Wissensvermittlung zumindest teilweise übernehmen kann?
Scheiter: Die Lehrkraft bleibt mindestens aus zwei Gründen wichtig. Zum einen wirkt die KI nicht für sich allein, sondern muss in ein sinnvolles Unterrichtsszenario eingebettet werden. Es braucht eine Aufgabenstellung, bei der es sinnvoll ist, mit KI zu arbeiten und bei der Schülerinnen und Schüler nicht nur die Antwort übernehmen, sondern reflektieren. Diese Orchestrierung der KI in einen größeren Unterrichtskontext ist eine extrem wichtige Aufgabe der Lehrkräfte. Diese Erfahrung bestätigt sich selbst bei hochentwickelten intelligenten tutoriellen Systemen (ITS), bei denen man annehmen könnte, der Lernprozess liefe vollautomatisch ab. Der andere Punkt ist die Vermittlung von KI-Kompetenzen an die Schülerinnen und Schüler. Es ist essentiell, sie anzuleiten, wie man sinnvoll mit der Technik umgeht und die Ergebnisse hinterfragt. An anderen Stellen, wie bei der Materialerstellung, sehe ich eher Entlastungsfunktionen – wobei auch da die Lehrkraft immer diejenige bleibt, die das Ergebnis am Ende final prüft.
Was ist der Unterschied zwischen ITS und generativer KI?
Intelligente Tutorielle Systeme (ITS): Ein ITS wird von Expertinnen und Experten gezielt konstruiert. Man kann es sich wie ein hochspezialisiertes, digitales Lehrbuch vorstellen, das von Grund auf für ein einziges Thema (zum Beispiel Bruchrechnung) entwickelt wird. Fachdidaktikerinnen, Fachdidaktiker und Lehrkräfte definieren dabei jede Regel, jeden möglichen Lösungsweg und jeden typischen Fehler. Für jeden dieser Fehler wird eine passgenaue Hilfestellung programmiert. Das Ergebnis ist ein geschlossenes, kuratiertes System, das didaktisch sehr präzise arbeitet, aber in seiner Erstellung extrem aufwändig ist und nur für sein spezifisches Fachgebiet eingesetzt werden kann.
Generative KI (zum Beispiel ChatGPT, Gemini): Eine generative KI wird nicht konstruiert, sondern mit riesigen Datenmengen aus dem Internet trainiert. Ein neuronales Netzwerk lernt dabei keine festen Regeln, sondern die statistische Wahrscheinlichkeit, mit der Wörter aufeinanderfolgen. Seine Kernaufgabe ist es, Muster zu erkennen und auf Basis einer Nutzereingabe das wahrscheinlichste nächste Wort vorherzusagen. Das Ergebnis ist ein offenes, universell einsetzbares System, das über fast alles "sprechen" kann. Es hat jedoch kein echtes inhaltliches Verständnis oder eine eingebaute pädagogische Struktur und ist daher anfällig für Fehler ("Halluzinationen").
Redaktion: Sie weisen in der Handreichung auch auf die Gefahr eines "Deskilling-Effekts" hin, also dass Schülerinnen und Schüler grundlegende Fähigkeiten verlernen, wenn sie Aufgaben an die KI auslagern. Wie können Lehrkräfte im Schulalltag praktisch gegensteuern, ohne KI pauschal zu verbieten?
Scheiter: Die Gefahr ist relativ groß, wenn Schülerinnen und Schüler von Anfang an mit der KI arbeiten dürfen. Dann lagern sie die Bearbeitung der Aufgabe einfach an die Künstliche Intelligenz aus. Idealerweise sollte der Erstentwurf, etwa bei einer Hausarbeit, selbst und ohne KI-Tools geschrieben sein. Danach kann man in einen Optimierungsprozess mit Hilfe der KI einsteigen. Bei Schülerinnen und Schülern sollte es zudem immer einen Aufgabenanteil geben, in dem aktiv reflektiert wird: An welcher Stelle habe ich aus welchen Gründen mit der KI gearbeitet? Welche Antwortanteile habe ich übernommen? Wo habe ich nochmal nachgeprüft? Es muss ein ganz bewusster Prozess initiiert werden. Trotzdem ist die Gefahr von Deskilling nicht von der Hand zu weisen. Man muss immer wieder betonen, dass man das Wissen eben noch selber im Kopf braucht – allein, um beurteilen zu können, ob das, was die KI ausgibt, Unsinn ist oder stimmt. Denken kann ich nur mit dem Wissen, was ich selber im Kopf habe.
„Man muss immer wieder betonen, dass man das Wissen eben noch selber im Kopf braucht – allein, um beurteilen zu können, ob das, was die KI ausgibt, Unsinn ist oder stimmt.“
Professorin Katharina Scheiter
Redaktion: Das führt uns zur Zukunft der Leistungsbewertung. Traditionelle Formate wie Hausarbeiten werden durch KI grundlegend herausgefordert. Welche konkreten ersten Schritte würden Sie Schulen empfehlen, die ihre Prüfungskultur an das KI-Zeitalter anpassen möchten?
Scheiter: Zunächst muss man bewusst darüber nachdenken: Was erwarte ich, dass ein Schüler oder eine Schülerin wirklich eigenständig, ohne technische Hilfe, können soll? Wenn das das Ziel ist, kommen nur Prüfungsformate ohne technologische Unterstützung infrage, also zum Beispiel mündliche Prüfungen oder technologiefreies schriftliches Prüfen. Man kann sich aber auch überlegen, welche Möglichkeiten es gibt, Prüfungen mit KI zu gestalten. Es kann ein interessantes Prüfungsformat sein, zu sehen, wozu Lernende in Zusammenarbeit mit einer KI in der Lage sind. Das ist an vielen Stellen realitätsnäher, weil wir in der Arbeitswelt ja auch technologische Unterstützung haben. Das stellt allerdings die klassische, unbeaufsichtigte Hausarbeit fundamental infrage.
Redaktion: Eine verbreitete These lautet, Faktenwissen sei im Zeitalter von KI überflüssig. Ihre Handreichung argumentiert entschieden dagegen. Warum ist fundiertes Faktenwissen wichtiger denn je?
Scheiter: Man muss natürlich etwas differenzieren, welche Fakten wichtig sind. Ob man eine Jahreszahl exakt kennt, ist dabei vielleicht weniger entscheidend, als den Kontext zu kennen, um ein Ereignis in einen größeren Zusammenhang einzuordnen. Schlussfolgern, Dinge miteinander verknüpfen, auf neue Bereiche anwenden – diese Denkleistungen kann ich nur erbringen, wenn ich in meinem Kopf ein mentales Modell aufgebaut habe, also verstanden habe, was die Dinge im Innersten zusammenhält. Dafür kann ich mir einzelne Fakten aus dem Internet hinzuziehen, aber die Kontextualisierung und das In-Beziehung-Setzen muss ich selber leisten können.
„Ich wünsche mir Unterrichtsszenarien, in denen Schülerinnen und Schüler über einen längeren Zeitraum mit einer KI an einem komplexen Problem arbeiten, das sie wirklich herausfordert.“
Professorin Katharina Scheiter
Redaktion: Große Anbieter wie Google oder OpenAI haben vor kurzem Lern-Modi eingeführt, die nicht direkt antworten, sondern Rückfragen stellen und Lernprozesse hilfreich begleiten sollen. Ist dies aus lernpsychologischer Sicht ein didaktischer Fortschritt oder nur eine Anpassung?
Scheiter: Fragen zu stellen ist erstmal eine sinnvolle didaktische Aktivität, aber es kommt auf die Qualität der Frage an. Wenn es sich dabei aber nur um ein reines Paraphrasieren handelt, entsteht noch kein guter sokratischer Dialog. Was wir jetzt sehen, scheint mir eher eine Marketingstrategie zu sein, als Reaktion auf die Kritik, KI gäbe alles vor. Man setzt einen "Study Mode" obendrauf und sagt, das Problem sei behoben. Eine echte Verknüpfung von generativer KI mit validen Wissensmodellen und fachdidaktischem Verständnis, wie es bei ITS der Fall ist, ist für mich dabei noch nicht erkennbar.
Redaktion: Wenn wir Ängste und Sorgen für einen Moment beiseite lassen: Welches konkrete, positive Unterrichtsszenario mit KI würden Sie sich für die Zukunft wünschen?
Scheiter: Ich klammere das ganze Thema Entlastung für Lehrkräfte mal aus, obwohl das vermutlich das Einfallstor sein wird, um viele zu überzeugen. Was den Unterricht angeht, sehe ich das größte Potenzial im Dialogischen: Dass Schülerinnen und Schüler einen "Study Buddy" neben sich sitzen haben und genau in dem Augenblick, wo sie ein Problem haben, fragen können: "Kannst du mir das mal erklären?". Ich wünsche mir Unterrichtsszenarien, in denen sie über einen längeren Zeitraum mit einer KI an einem komplexen Problem arbeiten, das sie wirklich herausfordert. Nicht an der 25. Übungsaufgabe, sondern an einem Szenario, in dem sie Wissen aus unterschiedlichen Domänen integrieren müssen. Und im gesamten Sprachbereich: Wenn ich mit einer KI echte, dynamische Dialoge in ganz unterschiedlichen Szenarien führen kann, lässt sich viel mehr simulieren, als es früher mit den starren, rein auf Wiederholung basierenden Übungen im Sprachlabor möglich war
Redaktion: Frau Professorin Scheiter, wir danken Ihnen für dieses Gespräch.

Zur Person
Prof. Dr. Katharina Scheiter ist Professorin für Digitale Bildung an der Universität Potsdam und forscht zum Lehren und Lernen mit digitalen Medien in Deutschland. Ihre Forschungsschwerpunkte liegen auf den kognitiven und motivationalen Prozessen beim Lernen mit Multimedia und digitalen Werkzeugen.





