ZÜRICH. “Mit Sorgen habe ich als langjähriger Ausbilder von Lehrpersonen wahrgenommen, dass man die schriftliche Division abschaffen will” – so schrieb uns Juraj Hromkovic, Professor an der ETH Zürich und Hauptautor der Unterrichtsbücher für Informatik in allen Schulstufen der Schweiz, mit Blick auf den neuen Grundschullehrplan in Niedersachsen (News4teachers berichtete). Sein Vorschlag: einen besseren Zugang zum Stoff finden. Im folgenden Gastbeitrag erläutert er seine Gedanken, “was für die Schule der Zukunft wichtig sei und wie man schriftliche Division so unterrichten kann, dass man alle Involvierten von Kindern bis zu Bildungsministerinnen zufrieden machen kann”. Und das wiederum hat viel damit zu tun, wie Künstliche Intelligenz die Schule verändern wird.

Künstliche Intelligenz – und die Folgen für die Bildung
Künstliche Intelligenz war 2025 eines der meistdiskutierten Themen, und das wird auch 2026 wahrscheinlich nicht anders sein. Diese Diskussion wird jedoch durch eine Vielzahl unsinniger Mythen und Interessen überschattet, die ein falsches Bild zwischen Werbung und Skepsis erzeugen. Hier erklären wir, was sie ist und was man tatsächlich von ihr erwarten kann.
Wenn man die KI fragt, was KI ist, bekommt man die folgende, ganz zutreffende Antwort: Künstliche Intelligenz (KI) ist ein Teilgebiet der Informatik, das Maschinen befähigt, menschliche Denkprozesse wie Lernen, Problemlösung, Sprachverständnis und Entscheidungsfindung zu simulieren und zu imitieren, indem sie Daten analysieren, Muster erkennen und autonom lernen, um Ziele zu erreichen.
Es geht also um die Ausübung von Tätigkeiten, die man sonst nur intelligenten Wesen zuschreiben würde. Die Definition sagt aber nichts davon, wie man diese Imitation des menschlichen Handelns erzeugen kann und wo die Grenzen dieses Einsatzes liegen.
Die Wurzel der KI
Wenn man etwas verstehen möchte, sollte man versuchen, die Genesis der Sache nachzuvollziehen und so weit wie möglich in die Vergangenheit zurückzugehen. Das tun wir hier, in dem wir die Gedanken eines der Urgrossvater der künstlichen Intelligenz – Gottfried Wilhelm Leibniz erläutern. Der Ursprung der KI startet mit dem Gedanken über die Mathematik, die man als Forschungsinstrument zur Beschreibung, Erforschung und Gestaltung der Welt versteht.
Die Mathematik wurde im Grunde genommen als Sprache entwickelt – mit zwei Zielen: Erstens, dass alles, was in dieser Sprache formuliert wird, hat eine eindeutige Interpretation (Objektivität im Kommunikationsaustausch in der Wissenschaft) hat, und zweitens, dass jede Argumentation in dieser Sprache überprüfbar ist. Leibniz und sein Verständnis der Arithmetik stellen eine sehr interessante Geschichte dar, aus der man viel lernen kann.
In der Arithmetik haben wir bestimmte Regeln, zum Beispiel gilt für das zum Beispiel gilt für das Produkt a⋅b = b⋅a oder a⋅(b+c) = a⋅b+a⋅c. Diese Regeln bezeichnen wir als syntaktischen Ausdruck der Ideen (Semantik) der Kommutativität der Multiplikation und des Distributivgesetzes. Diese Regeln sind nichts anderes als die Manipulation von Symbolen, man keine eine Seite der Gleichung durch die andere ersetzen. Und wenn wir alle Regeln der Arithmetik zusammennehmen, definieren sie für uns, was eine korrekte Berechnung ist. Denn eine korrekte Berechnung ist eine Abfolge von Schritten, bei denen in jedem einzelnen Schritt eine dieser Regeln jeweils angewendet wird.
Die Manipulation von Symbolen erfordert dabei kein Verständnis der Bedeutung dieser Symbole.
Wenn ich Symbole nach den Regeln manipuliere, rechne ich richtig – unabhängig davon, was diese Symbole bedeuten und ob ich verstehe, was ich tue. Das Verständnis der Bedeutung von Symbolen nennen wir Semantik, und ein sehr interessanter Aspekt von Leibniz’ Ansatz ist sein Bestreben, Semantik in Syntax zu übertragen. Genau deshalb sprach er von Mathematik als der Wissenschaft der Automatisierung. Wenn wir Semantik in Syntax übertragen, können wir diese Semantik vergessen und nur noch im Rahmen der Syntax arbeiten. In diesem Rahmen kann man richtig rechnen, auch wenn ich nicht versteht, was man eigentlich tut.

Ein wichtiger informatischer Gedanke ist dabei, dass wir zur Überprüfung der Richtigkeit einer Berechnung keinen Menschen brauchen, weil dies auf syntaktischer Ebene geschieht. Wenn wir ein System mit syntaktischen Regeln der Arithmetik programmieren, dann ist dieses System in der Lage zu überprüfen, ob eine Berechnung korrekt ist. Und nicht nur das, das System ist auch in der Lage, neue Berechnungen selbst entwerfen und auszuführen. Jetzt kam Leibniz mit der folgenden genialen Idee: »Nun gut, wenn wir syntaktisch definieren können, was korrektes Rechnen ist, warum definieren wir dann nicht syntaktisch, was korrektes Denken (korrekte Argumentation) ist?»
Wenn wir die Regeln der richtigen Argumentation in Syntax umsetzen könnten, könnten wir ein Programm schreiben, das automatisch die Richtigkeit jeder Argumentation überprüft. Und auch ein Programm, das neue Argumentationen generiert. Wir könnten ausprobieren, was sich alles aus dem, was wir bereits wissen, ableiten lässt. Wir könnten neues Wissen generieren. Bei der syntaktischen Manipulation von Symbolen müssen zwei Abstraktionsebenen berücksichtigt werden. Erstens kann ich vergessen, was die einzelnen Symbole in der Realität beschreiben – ob die Länge eines Objekts oder die Kurse an der Börse. Und zweitens kann ich die Bedeutung der einzelnen syntaktischen Regeln vergessen, ich muss sie nur gedankenlos anwenden. Die Grundprämisse dieses Ansatzes ist die Möglichkeit, das Denken auf die Ebene der Syntax, auf die Ebene der Manipulation von Symbolen zu übertragen. Ohne diese Prämisse würde es keine künstliche Intelligenz geben.
Das ist meiner Meinung nach das Wichtigste, was man in dem Zusammenhang mit KI verstehen muss. Übrigens Leibniz hatte es nicht geschafft, ein vollständiges syntaktisches System für korrektes Denken zu bauen. Es dauerte weitere 200 Jahre, bis George Bool die Regel der ersten Logik gebaut hatte. Die Logik als syntaktisches Modell des korrekten Denkens war der Grund, warum sich im Jahr 1956 einige führende Wissenschaftler wie John McCarthy, Marvin Minsky, Nathaniel Rochester and Claude Elwood Shannon für sechs Wochen in Hanover (New Hampshire, USA, gesponsort von der Rockefeller-Stiftung) getroffen haben und als Resultat das Gebiet der künstlichen Intelligenz gegründet haben.
LLM (Large Language Modell)
Allerdings handelt es sich bei der heutigen künstlichen Intelligenz hauptsächlich um sogenannte große Sprachmodelle, die nicht nach syntaktischen Regeln der Logik gebaut sind. Sie basieren aber weiterhin auf der Symbolmanipulation, nur nach anderen Regeln.
Statt der Logik verwenden wir ein stochastisches System, das das gesamte Internet durchsucht und ableitet, welche Wortfolgen mit welcher Wahrscheinlichkeit vorkommen. Das bedeutet, dass wenn wir einem solchen System einen Text mit ausgelassenen Wörtern geben, das System in der Lage ist, die Lücken mit den Wörtern zu füllen, die mit der größten Wahrscheinlichkeit dorthin gehören. Es handelt sich immer noch um ein syntaktisches Prinzip, auch wenn es auf bedingten Wahrscheinlichkeiten basiert, die aus einer riesigen Menge von Texten im Internet abgeleitet werden. Und es ist äußerst überraschend, was ein auf einem solchen syntaktischen Prinzip basierendes System leisten kann. Man dürfte es auch als ein Rückschritt betrachten, wenn man statt der zuverlässigen Logik das Entstehen von Halluzination fördert. Aber der Vorteil von LLM liegt in dem, dass man über alles Mögliche «sprechen» kann, was in der Sprache der Mathematik nicht unbedingt möglich ist. Auch wenn LLM nicht klüger sein kann als der Inhalt des Internets und kein neues Wissen generieren kann.
Durchbruch der KI dank der Technologie des maschinellen Lernens
Versuchen wir das maschinelle Lernen mit neuronalen Netzen anhand eines Beispiels aus dem Bereich der Spiele zu veranschaulichen. Alle endlichen Spiele, darunter auch Schach und Go, haben eine optimale Strategie – entweder hat einer der Spieler eine Gewinnstrategie, oder beide haben eine Remisstrategie. Diese Strategie existiert immer, und bei einfacheren Spielen können wir sie finden. Im Grunde reicht es aus, ein Graph aller möglichen Konfigurationen, also der Positionen der Figuren auf dem Spielbrett, zu erstellen. Für dieses Diagramm gibt es einen sehr einfachen und effektiven Algorithmus zur Suche nach der optimalen Strategie. Sogar schon Gymnasiasten schaffen es, diese Suche zu programmieren.
Wenn der Graph aller Konfigurationen eines Spieles jedoch riesig ist (z.B. ist die Anzahl der Konfigurationen bei Schach und Go grösser als die Anzahl der Protonen in dem Sonnensystem) können wir das nicht umsetzen. Wir können eine systematische Suche nach der optimalen Strategie programmieren – das heißt, wir wissen, dass diese Spielstrategien existieren und wie man sie im Prinzip findet –, aber aufgrund des enormen Arbeitsaufwands können wir sie praktisch nicht berechnen.
Dennoch gibt es Schachprogramme, die selbst die besten Schachgroßmeister schlagen. Und diese basieren gerade auf maschinellem Lernen. Der Schlüssel zum Erfolg des maschinellen Lernens liegt darin, dass es eine neue Darstellung von Wissen bietet.
Alle alten Systeme der künstlichen Intelligenz stellten Wissen auf eine Weise dar, die wir Menschen klar verstehen konnten. Das bedeutete unter anderem, dass wir von einer solchen künstlichen Intelligenz selbst lernen konnten, wie sie ihre Expertise einsetzt. Neuronale Netze, auf denen heute der Großteil des maschinellen Lernens basiert, repräsentieren Wissen jedoch anders – in Milliarden von Gewichten auf einzelnen Synapsen des Modelles eines neuronalen Netzes.
Künstliche Intelligenz spielt in wenigen Minuten mehr Partien, als ein Mensch in seinem ganzen Leben spielen kann. Das aus diesen Partien gewonnene Wissen wird in einem neuronalen Netzwerk kodiert, d. h. in den Gewichten der Synapsen. Das System, das alle Schachspieler besiegt, hat dabei keine optimale Strategie. Deshalb verliert es manchmal. Aber es hat eine bessere Strategie als die besten Schachspieler. Diese Strategie ist jedoch in den Gewichten der Synapsen kodiert, also in einer Form, die für uns absolut unlesbar ist. Das bedeutet, dass wir ein System zu einer Expertise trainieren können, die wir von ihm nicht lernen können. Und deshalb bleibt uns nichts anderes übrig, als dieses System zu nutzen. Wir können von ihm nicht lernen, Schach zu spielen.
Morgen folgt der zweite Teil des Gastbeitrags, in dem Prof. Hromkovic erläutert, was KI mit dem Thema “schriftliches Dividieren in der Grundschule” zu tun hat.
Hier geht es zu allen Beiträgen des News4teachers-Themenmonats „Schule der Zukunft“.
Kooperieren, reflektieren, Verantwortung übernehmen: So fördern Schulen Future Skills









“dass man alle Involvierten von Kindern bis zu Bildungsministerinnen zufrieden machen kann”
Quadratur des Kreises.
Nein, meine Aufgabe ist es nicht “alle” zufrieden zu stellen, sondern die von demokratisch gewählten Politikern geforderten Lehrinhalte so umzusetzen, dass sie die Kinder verstehen.
Burnout sollen die anderen haben…