Website-Icon News4teachers

OECD-Bericht: Wie Künstliche Intelligenz schulisches Lernen untergraben – und verbessern kann

Anzeige

BERLIN. Der Einsatz generativer künstlicher Intelligenz im Bildungsbereich ist nach Einschätzung der OECD längst keine Randerscheinung mehr. Schülerinnen und Schüler nutzen Chatbots und andere KI-Tools heute in vielen Ländern regelmäßig – häufig ohne pädagogische Anleitung und vor allem aus Gründen der Effizienz. Der nun vorgelegte Bericht OECD Digital Education Outlook 2026 beschreibt detailliert, wie genau diese Nutzung Lernprozesse verändern kann: zum Schlechteren wie zum Besseren.

Gut und böse. (Symbolbild.) Illustration: Shutterstock

Zunächst zeichnet die OECD ein klares Bild der Verbreitung. Zwar gebe es noch keine vollständig vergleichbaren internationalen Daten, doch zahlreiche nationale und internationale Erhebungen zeigten, dass generative KI „rasch von einer marginalen zu einer weit verbreiteten Nutzung übergegangen ist“. Besonders ausgeprägt sei dieser Trend in der Sekundarstufe II und im Hochschulbereich. Zusammenfassend heißt es: „Kurz gesagt: Schülerinnen und Schüler nutzen generative KI – in geringem Umfang in der Primarstufe, moderat in der Sekundarstufe I, aber regelmäßig und mehrheitlich in der Sekundarstufe II und im Hochschulbereich.“

Entscheidend für die Bewertung ist für die OECD jedoch nicht die bloße Nutzung, sondern deren Funktion. Viele Schülerinnen und Schüler greifen auf KI zurück, um Aufgaben schneller zu erledigen. Der Bericht stellt fest, dass ihre Motivation dabei häufig nicht auf vertieftes Lernen, sondern auf Bequemlichkeit und Zeitersparnis zielt. In mehreren Studien hätten Schülerinnen und Schüler angegeben, sie nutzten KI vor allem für „kognitive Unterstützung, etwa Informationen, Erklärungen und Zusammenfassungen, oder für Produktionsunterstützung wie Ideengenerierung, das Verfassen von Texten und die direkte Generierung von Lösungen.“

Anzeige

Diese Art der Nutzung hat nach Einschätzung der OECD konkrete kognitive Folgen. In Estland etwa gaben Schülerinnen und Schüler der Klassenstufen 6 bis 12 an, KI vor allem einzusetzen, um „bessere Noten zu erzielen, schulische Aufgaben zu erleichtern und Zeit zu sparen“. Die Studie kommentiert dazu nüchtern: „Diese Nutzungen unterstützen das Lernen in der Regel nicht.“ Besonders häufig sei das direkte Beantworten von Hausaufgaben oder das Generieren von Ideen, ohne dass ein eigener Lernprozess stattfinde.

„Generative KI-Systeme können die scheinbare Qualität von Schülerarbeiten verbessern, ohne ihr tatsächliches Lernen – also den Erwerb von Wissen und Fähigkeiten – zu erhöhen“

Der Bericht beschreibt ein wiederkehrendes Paradox: Die Nutzung allgemeiner KI-Chatbots verbessert kurzfristig die sichtbare Leistung, ohne nachhaltiges Lernen zu fördern. Die OECD formuliert das so: „Generative KI-Systeme können die scheinbare Qualität von Schülerarbeiten verbessern, ohne ihr tatsächliches Lernen – also den Erwerb von Wissen und Fähigkeiten – zu erhöhen.“

Besonders deutlich wird dieses Muster in einer randomisierten Kontrollstudie aus der Türkei, die im Bericht ausführlich dargestellt wird. Rund 1.000 Schülerinnen und Schüler der Klassen 9 bis 11 bearbeiteten mathematische Übungen unter drei Bedingungen: ohne KI, mit einem allgemeinen Chatbot und mit einem pädagogisch konfigurierten Chatbot, der direkte Lösungen vermeiden sollte. Während der Übungsphasen erzielten die KI-Nutzer deutlich bessere Ergebnisse. Doch in einer anschließenden Prüfung ohne Hilfsmittel zeigte sich ein gegenteiliges Bild. Die OECD fasst zusammen: „Als das Wissen in einer Closed-Book-Situation überprüft wurde, verschwanden die Leistungsgewinne: Schülerinnen und Schüler, die den allgemeinen GPT-Chatbot genutzt hatten, erzielten sogar schlechtere Ergebnisse als jene, die selbstständig gelernt hatten.“

Der Mechanismus dahinter wird im Bericht präzise beschrieben. In mehreren Studien habe sich gezeigt, dass Lernende beim Arbeiten mit allgemeinen Chatbots zentrale metakognitive Prozesse vernachlässigen. In einer Untersuchung mit chinesischen Studierenden etwa stellten die Forschenden fest, dass die KI-Nutzer zwar die besten Texte ablieferten, „die gemessenen Wissenszuwächse sich jedoch nicht verbesserten“. Gleichzeitig hätten diese Studierenden weniger metakognitive Aktivitäten gezeigt, „insbesondere bei Bewertung und Orientierung“.

Eine weitere Studie beschreibt dieses Verhalten als gezielte Abkürzung. Die OECD zitiert die Autoren mit der Beobachtung, dass einige Lernende beim Einsatz eines Chatbots „direkt um Hilfe bitten und die erhaltene Lösung sofort umsetzen“. Diagnose, Bewertung und iterative Überarbeitung – zentrale Schritte selbstregulierten Lernens – würden häufig übersprungen. Die Forschenden bezeichnen dieses Muster als „metakognitive Trägheit“, im Sinne einer kognitiven Auslagerung von Denkleistung.

Neurokognitive Befunde stützen diese Einschätzung. In einer US-amerikanischen Studie, in der Studierende Essays entweder ohne Hilfsmittel, mit Suchmaschinen oder mit ChatGPT schrieben, konnten „nur 12 Prozent der LLM-Gruppe innerhalb einer Stunde etwas aus ihrem eigenen Text wörtlich zitieren“. In den Vergleichsgruppen lag dieser Wert bei 89 Prozent. Zwar seien die Texte der KI-Gruppe gut bewertet worden, doch zeigten die Teilnehmenden „eine geringere Fähigkeit, den Standpunkt ihres Essays zusammenzufassen, ein niedrigeres Gefühl von Urheberschaft und stärker ähnliche Inhalte untereinander“. Bildgebende Verfahren deuteten zudem darauf hin, dass sich die kognitive Aktivität vom eigenständigen Generieren hin zum Überwachen der KI verlagerte.

„Drei von vier Lehrkräften geben an, dass ihnen das Wissen oder die Fähigkeiten fehlen, um KI im Unterricht einzusetzen“

Gleichzeitig macht die OECD deutlich, dass diese Effekte kein zwangsläufiges Ergebnis von KI-Nutzung sind. Entscheidend sei die pädagogische Gestaltung. Der Bericht betont: „Diese Evidenz zeigt, dass ein Teil der Schülerinnen und Schüler bei der Nutzung allgemeiner LLMs Abkürzungen nimmt und die produktive Anstrengung vermeidet, die für Lernen und nachhaltigen Wissens- und Kompetenzerwerb notwendig ist.“

Demgegenüber stehen Studien zu gezielt konfigurierten, pädagogischen KI-Systemen. Solche Anwendungen seien darauf ausgelegt, keine direkten Lösungen zu liefern, sondern Lernprozesse zu strukturieren. Ein Beispiel ist das in den USA entwickelte System „Tutor CoPilot“, das auf Basis von Beobachtungen guter Lehrkräfte trainiert wurde. In einer randomisierten Studie erhöhte es die Bestehensquoten um durchschnittlich vier Prozent – bei unerfahrenen Tutorinnen und Tutoren sogar um neun Prozent. Die OECD hebt hervor: „Die größten Effekte zeigten sich bei weniger erfahrenen Tutoren und solchen mit zuvor niedrigerer Qualität.“

Auch im Hochschulbereich gibt es entsprechende Befunde. In einer Studie an der Harvard University lernten Studierende mit einem KI-Tutor, der explizit Prinzipien des aktiven Lernens umsetzte, „signifikant mehr in kürzerer Zeit“ als in vergleichbaren Präsenzformaten. Zugleich berichteten sie von höherer Motivation und stärkerem Engagement.

Für Lehrkräfte, die KI nutzen, ergeben sich aus dem Bericht ambivalente Befunde. Laut der OECD-Lehrkräftebefragung TALIS 2024 nutzten im Durchschnitt 36 Prozent der Lehrkräfte der Sekundarstufe I KI im Jahr vor der Erhebung. Der Einsatz konzentriere sich überwiegend auf Vorbereitung und Effizienzgewinne. „68 Prozent geben an, KI zu nutzen, um sich effizient über Unterrichtsthemen zu informieren und diese zusammenzufassen, 64 Prozent zur Erstellung von Unterrichtsplänen.“ Tiefergreifende didaktische Anwendungen seien hingegen selten.

Gleichzeitig berichten viele Lehrkräfte von Überforderung. „Drei von vier Lehrkräften geben an, dass ihnen das Wissen oder die Fähigkeiten fehlen, um KI im Unterricht einzusetzen“, heißt es im Bericht. Etwa die Hälfte dieser Gruppe ist der Ansicht, KI solle im Unterricht gar nicht genutzt werden. Diese Unsicherheit kontrastiert mit der hohen Nutzung durch Schülerinnen und Schüler – ein strukturelles Ungleichgewicht, das die OECD nicht explizit bewertet, aber deutlich sichtbar macht.

Die zentrale Botschaft des Berichts ist damit weniger eine Warnung vor KI als eine Warnung vor ungesteuerter Nutzung. Generative KI könne Lernen untergraben, wenn sie als Abkürzung dient. Sie könne Lernen fördern, wenn sie didaktisch eingebettet ist, kognitive Aktivierung erzwingt und Lehrkräfte unterstützt, statt sie zu ersetzen. Oder, wie es im Bericht zusammenfassend heißt: Lernwirksam sei KI dann, „wenn Werkzeuge so konfiguriert sind, dass sie Bildungszwecken dienen und in professioneller Lehrpraxis sowie Lernwissenschaft verankert sind“. News4teachers

Hier lässt sich der vollständige Bericht herunterladen. 

„KI macht das Leben als Schüler zur Hölle“ – Gymnasiast, der ehrlich lernen will, sieht sich krass benachteiligt

Anzeige
Die mobile Version verlassen