KI als „sokratischer Dialogpartner“: Wie sich Chatbots zum Lernen nutzen lassen

5

GÜTERSLOH. Wer ChatGPT und ähnliche Modelle clever trainiert, kann sich mit ihnen auf Prüfungen vorbereiten. Wo liegen dabei rechtliche und andere Stolperfallen? Wie lässt sich das Beste aus der KI herausholen?

„Fragen, ohne Antworten zu liefern“. Illustration: Shutterstock

Ob für private Geburtstagsglückwünsche, in der Medizin oder in der Industrie – Künstliche Intelligenz (KI) hat längst Einzug in den Alltag vieler Menschen erhalten. Doch wie sieht es an den Schulen und Hochschulen aus? Lässt sich KI in Form von Sprachmodellen wie ChatGPT zur Prüfungsvorbereitung nutzen? Und ist das erlaubt?

Die meisten Hochschulen in Deutschland seien gerade erst dabei, Leitlinien oder Handreichungen zum Thema KI zu entwerfen, sagt Jens Tobor vom Hochschulforum Digitalisierung am Centrum für Hochschulentwicklung (CHE). Diese hätten jedoch noch keinen verbindlichen Regelungscharakter, sondern würden vor allem Empfehlungen zum Umgang aussprechen. Zumal die Klärung vieler derzeit bestehender Grauzonen durch das Inkrafttreten des europäischen KI-Gesetzes noch ausstünde, so Tobor.

Aber: «Im Gegensatz zur eigentlichen Prüfung ist bei der Prüfungsvorbereitung prinzipiell erst einmal alles erlaubt, was für einen selbst funktioniert und Spaß macht», sagt Jannica Budde. Wichtig jedoch: ChatGPT ist ein Sprachmodell, kein Wissensmodell. «Das Bewusstsein dafür, dass die Informationen falsch sein können, muss da sein», sagt die Senior-Projektmanagerin beim Hochschulforum Digitalisierung.

Hürde Datenschutz und Urheberrecht

«Abgesehen von Datenschutz und Urheberrecht gibt es noch keinen verbindlichen Rechtsrahmen, auf den sich die Hochschulen stützen könnten», sagt Tobor. Damit ist aber auch gleich die größte Hürde benannt, wenn es darum geht, eine KI zum persönlichen Lernassistenten zu machen. Schließlich müssten Studierende das Modell ja erst mit dem Wissen füttern, das sie für ihr jeweiliges Fach benötigen.

Die Einbindung von urheberrechtlich geschützten Lernmaterialien oder alten Klausuren ist jedoch problematisch. «Das wäre eine Vervielfältigung, die womöglich rechtswidrig ist», so Tobor. Bisher sei nicht klar, ob und inwiefern die hinter den Anwendungen stehenden KI-Unternehmen die eingespeisten Daten weiterverarbeiten.

Stattdessen empfiehlt Tobor, es andersherum zu versuchen und den Chatbot in die Rolle des sokratischen Dialogpartners zu versetzen. ChatGPT beispielsweise stellt der lernenden Person reflektierende Fragen zu einem Sachverhalt, der zuvor individuell festgelegt wurde, und prüft, ob sie das Thema verstanden hat. «Das hat den Charme, dass die KI keine vermeintlich falschen Informationen liefert, sondern zu einer vertieften und damit lernförderlichen Auseinandersetzung mit den Inhalten anregt.»

So wird die KI zum Lernpartner

Katharina Opper, Bildungswissenschaftlerin und E-Learning-Entwicklerin, hat sich mit dieser Herangehensweise beschäftigt. Die Methode, die von dem Philosophen Sokrates geprägt wurde, stellt «Fragen, ohne Antworten zu liefern», schreibt Opper in einem Gastbeitrag zur Vorbereitung ihrer Masterarbeit. Sie hat eine Eingabeaufforderung (Prompt) entwickelt, mithilfe derer die KI fähig ist, gezielt Fragen zu stellen und so zu selbstständigem Denken anzuregen. Wer diesen Prompt eingibt, wird zunächst nach dem Gesprächsthema gefragt und schon kann es losgehen.

Diese Vorgehensweise sei, so Opper, weniger anfällig für Falschinformationen, weil nichts geliefert werde, was unkritisch übernommen werden könnte. Hintergrund: Generative KI-Modelle arbeiten mit Wortwahrscheinlichkeiten. Sie lernen mithilfe großer Mengen an Trainingsdaten, wie Sprache typischerweise verwendet wird. Damit sind die Modelle anfällig für das Phänomen des «Halluzinierens», bei dem die Antworten plausibel erscheinen, inhaltlich aber nicht korrekt sind.

Zahlen, Daten, Fakten als große Fehlerquelle

Eine andere Möglichkeit besteht darin, ChatGPT in die Lage zu versetzen, sich dumm zu stellen. Man selbst berichtet dann von dem zu lernenden Stoff. «Dieser Prozess des Erklärens festigt den Stoff ebenfalls», sagt Tobor. Dafür sei es notwendig, der KI ihre Rolle zuzuweisen und ihr etwas Kontext zu geben. Also etwa: Du bist unwissend in dem Bereich XY, Du bist aber ein Kommilitone, der ebenfalls in meinem Fach eingeschrieben ist und ich erkläre Dir, was Du wissen musst.

Eine weitere Option wäre, sich von der generativen KI Prüfungsaufgaben stellen zu lassen, die man dann beantwortet. «Das kann die KI einigermaßen gut, allerdings ist das Ausmaß an Falschinformationen, das die KI bei faktenbezogenem Prüfungswissen liefert, noch erheblich», sagt Malte Persike vom Center für Lehr- und Lernservices an der RWTH Aachen. «Ich würde jeden davor warnen, sich in Bezug auf Fachinhalte und -wissen, gerade wenn es um Zahlen und Daten geht, auf die KI zu verlassen.»

Wissen aus gesicherter Quelle

Wird die KI mit einer Datenbank gekoppelt, aus der sie spezifische Inhalte bezieht, funktioniert es deutlich besser, auch da kann es aber zu Falschinformationen kommen. «Das liegt entweder daran, dass die Frage missverstanden wurde und aus der Datenbank nicht die korrekten Informationen abgerufen werden, oder weil die Inhalte aus der Datenbank nicht verstanden wurden», erklärt Persike.

Will man allerdings Unterlagen aus einem digitalen Lernraum als PDF herunterladen und in die KI wieder hineinladen, stößt man an eben die bereits erwähnten urheberrechtlichen Grenzen.

Allerdings nur dann, wenn man ein kommerzielles System nutzt. Persike zufolge gibt es mittlerweile KI-Werkzeuge, die man auf dem eigenen Notebook installieren kann. Diese laufen lokal und übertragen keine Daten ins Internet. «Das wäre mit hoher Wahrscheinlichkeit rechtlich zulässig», sagt Persike. Diese Modelle hätten zwar bislang nicht die Qualität oder Leistungsfähigkeit von ChatGPT4, «aber wenn man einen Dialogpartner haben will, ist die Qualität der Open Source-Varianten gut.» Von Bernadette Winter, dpa

McKinsey-Studie: Künstliche Intelligenz wird Lehrberufe am stärksten verändern

Anzeige


Info bei neuen Kommentaren
Benachrichtige mich bei

5 Kommentare
Älteste
Neuste Oft bewertet
Inline Feedbacks
View all comments
Unfassbar
1 Monat zuvor

Die KI an ihre Grenzen zu bringen, ob fachlich oder politisch, halte ich für lehrreich. Für alles andere halte ich sie für gefährlich, weil sehr verlockend.

Rainer Zufall
1 Monat zuvor

Es klingt spannend, eine digitale Lehrkraft zum Austausch zu haben. Schade, dass die Ethik als erstes zum Teufel gejagt wird. Ist mir doch egal, wer dafür ausgeblutet wird. Es ist so viel praktischer, als mich von Mitmenschen quizzen zu lassen…

Riesenzwerg
1 Monat zuvor

Grenzen von Chatty – ich hatte einen Konflikt mit ihm, der nicht zu lösen war.

Ich suchte nach dem Text einer ganz bekannten Kurzgeschichte (Die Probe von Herbert Malecha, erschienen 1954).

Er fand auch etwas – allerdings hatte die Gesichte (gleicher Titel, gleicher Autor und gleiches Erscheinungsjahr!) einen komplett anderen Inhalt.

Ich widersprach selbstverständlich mehrfach und wurde erneut nach dem Autor gefragt, dem Titel, dem Autor, den ich richtig eingeben müsste und dem richtigen Titel …

Ich nannte Situationen aus dem Inhalt, den Namen des Protagonisten, usw.

Chatty musste passen.

Gut, vielleicht wurde er damit nicht gefüttert. Das kam jedoch nicht als Erklärung.

Und macht deutlich – was ihm nicht gegeben wurde, kann er nicht.

Letztlich auch nur eine Bubble, unser guter Chatty.

Und ja nach Fütterer gehen die Daten, die er ausspucken kann, in die eine oder andere Richtung….. Und das ist gefährlich.

Unfassbar
1 Monat zuvor
Antwortet  Riesenzwerg

Eben. Aus dem Grund müsste man allen ChatBots tatsächlich mit allem füttern, was es so gibt. Das führt zwar zu politisch unerwünschten Ergebnissen wie es bei den frühen Versionen von ChatGPT passiert ist, aber der Bot sagt dann mit großer Wahrscheinlichkeit die ehrliche Wahrheit und Betriebsunfälle wie schwarze deutsche Soldaten im zweiten Weltkrieg werden vermieden. Widersprüchliche Antwortbereitschaft bei Witzen über Männer (zulässig) und über Frauen (nicht zulässig) wie es auch vorgekommen ist, fällt dann ebenso wahrscheinlich auch weg.

laromir
1 Monat zuvor

Was hat das mit einem sokratischen Dialog zu tun? Stellt man der KI Fragen auf die sie , so gut sie kann antwortet? Oder bekommt man von der KI Fragen gestellt, die man beantworten soll? Eine Art Quiz? Ein Quiz ist jedoch kein sokratischer Dialog. Und ein sokratischer Dialog mit echten Menschen ist für alle Teilnehmer lehrreich auch ohne KI. Was haben nloß alle immer gegen echte Menschen….