Was machen Computer und Künstliche Intelligenz mit dem menschlichen Gehirn? Forscher: Kommt drauf an…

7

TÜBINGEN. Digitales Arbeiten fordert das Gehirn ganz ordentlich. Auch der Einsatz von KI-Tools wie ChatGPT kann Prozesse im Oberstübchen verändern. Was macht das alles mit unserer Steuerzentrale? Kommt drauf an – sagen Hirnforscher: nämlich darauf, ob uns die neuen Instrumente aktivieren oder in die Passivität treiben.

«Es darf nicht passieren im Bildungsprozess, dass der aktive Lernprozess an ChatGPT ausgelagert und das Gehirn nicht gefordert wird.» Illustration: Shutterstock

Im Gehirn arbeiten Milliarden vernetzter Nervenzellen, verschiedene Areale haben unterschiedliche Aufgaben. Die Digitalisierung verändert Experten zufolge Lernprozesse im Gehirn. Und auch Künstliche Intelligenz (KI) stellt mit Programmen wie ChatGPT teils neue Anforderungen an die menschliche Steuerzentrale.

Psychologe und Hirnforscher Peter Gerjets vom Leibniz-Institut für Wissensmedien in Tübingen geht davon aus, dass ChatGPT und ähnliche Angebote einen großen Einfluss auf das Bildungswesen haben werden. Eine sinnvolle, kompetente Nutzung sei dabei keineswegs ein Selbstläufer.

«Es darf nicht passieren im Bildungsprozess, dass der aktive Lernprozess an ChatGPT ausgelagert und das Gehirn nicht gefordert wird», sagt der Bildungswissenschaftler zum Internationalen Tag der Bildung am 24. Januar. «Es ist wichtig, was im Kopf passiert und was als echte Lernleistung herauskommt. Ob das mit oder ohne Unterstützung von GPT passiert, ist letztlich nicht entscheidend.»

«Kognitives Off-Loading»

Kognitive Arbeitsleistungen an KI abzugeben sei immer mit der Frage verbunden, ob damit Freiräume entstehen, die das Gehirn für andere Aufgaben nutzen könne. So war es einst auch heiß diskutiert worden bei Einführung von GPS-Navisystemen.

«Fakt ist: Wird eine bestimmte Fähigkeit nicht mehr benötigt, dann werden die Hirnareale, die diesen Skill implementieren, geschwächt.» Gerjets nennt als Beispiel: «Wenn ich den Taschenrechner zum Dividieren nutze, bin ich im Ergebnis wesentlich schneller, aber meine Fähigkeit, zu dividieren, leidet und das wirkt sich auf die entsprechenden Hirnareale aus.» Das sei aber kein Drama. «Was im Gehirn verschüttet ist, kann wiederbelebt werden, ist also nicht verloren.»

Der Forscher erläutert: Bestimmte Bereiche «schwellen» quasi an bei besonders starken Anforderungen. «Sie werden größer und dichter.» Und sie verkleinern sich bei abnehmender Anforderung. Ein permanentes Multitasking führe zu Erschöpfung im Gehirn.

Präfrontaler Cortex stärker beansprucht

Schon das Nutzen technischer Geräte wie Tablets beim digitalen Lernen benötigt extra Aufmerksamkeit und Energie, weil neben der inhaltlichen Verarbeitung auch die Bedienung der Technik Konzentration beanspruche, schildert Neurobiologe Martin Korte von der TU Braunschweig. Beim Scrollen über mehrere Seiten hinweg und Eintauchen in Hyperlinks sei es anstrengend, den inhaltlichen Bezug nicht zu verlieren, den Überblick im Kopf wieder herzustellen. Vor allem der präfrontale Cortex im Frontallappen – «Kommandozentrale im Gehirn und das Cockpit, in dem alle Informationen zusammenlaufen und Aufgaben verteilt werden» – sei deutlich mehr beansprucht.

Da nun absehbar KI mit Tools wie ChatGPT verstärkt hinzukommen, gelte umso mehr: «Wenn wir beim Lernen durch vorgefertigte Antworten nur passive Zuschauer sind, ist das Lernen nicht nachhaltig», sagt Korte. Aktivität sei wichtig – und ebenso, dass man Inhalte und Informationen reflektieren könne. Daraus entstehe dann Wissen, das im Gehirn abgespeichert werde – was wiederum «die Verschaltungen, also die Struktur des Gehirns verändert». Eine KI, die verstanden werde in ihren Stärken und Schwächen, könne ein Gewinn sein. «Aber nur, wenn wir – Lehrer wie Schüler – in gleichem Maße klüger werden wie die Maschinen „klüger“ werden», unterstreicht Korte.

KI-Nutzung stellt zusätzliche Anforderungen ans Gehirn

«Neue Informationen zu bewerten, auszuwählen, Quellen zu vergleichen – alles das ist Arbeit für den Frontallappen unseres Gehirns. Diese Fähigkeit zur Bewertung wird immer wichtiger», betont Gerjets. ChatGPT erwecke stets den Anschein, eine korrekte Antwort gegeben zu haben: «Sprachlich glatt und fertig ausformuliert, im Brustton der Überzeugung, aber ohne Quellenangabe. Viele Menschen finden das glaubwürdig. Das halte ich für sehr bedenklich.»

Gerjets sieht in KI-Tools wie ChatGPT enorme Chancen für den Bildungsbereich. Für Schülerinnen und Schüler könnten diese viele Vorteile haben, etwa beim Generieren von Übungsmaterial, beim Abfragen von Gelerntem. «Man hat allerdings einen Lernbegleiter und Gesprächspartner, den man mit Vorsicht genießen muss, der nämlich auch nicht alles weiß, sondern manchmal völligen Quatsch liefert.»

Ob sich womöglich langfristig auch Hirnstrukturen durch die Nutzung von KI ändern werden, sei noch nicht abzusehen, sagt der Tübinger Forscher. Einer Bitkom-Umfrage zufolge spricht sich eine Mehrheit von 61 Prozent aller Bürgerinnen und Bürger in Deutschland für einen KI-Einsatz im Bildungswesen aus, wie der Digitalverband mitteilt.

Ein Blick auf die Hochschulen

Auch in der Hochschulwelt ist KI längst angekommen. In Bonn zeigte man sich kürzlich dennoch überrascht: Ein Test des Instituts für Medizindidaktik ergab, dass Studierende in fast der Hälfte der Fälle nicht korrekt zuordnen konnten, ob Multiple-Choice-Fragen von Mensch oder KI kamen. Zudem stuften sie die Schwierigkeit der Aufgaben als praktisch identisch ein, wie das Uniklinikum Bonn schildert (News4teachers berichtete).

Bekannt war dort zwar schon, dass ChatGPT und ähnliche Tools Fragen in medizinischen Staatsexamina beantworten können. Genutzt würden die Programme auch bereits zum Selbsttesten des angeeigneten Wissens. Nun scheine für das Medizinstudium also noch dazu ein vielversprechendes Werkzeug für das Erstellen von Prüfungsfragen gefunden zu sein. Von Yuriko Wahl-Immel, dpa

KMK-Kommission sieht großes Potenzial für ChatGPT und Co. an Schulen – betont aber auch: Lehrkräfte sind gefordert!

Anzeige


Info bei neuen Kommentaren
Benachrichtige mich bei

7 Kommentare
Älteste
Neuste Oft bewertet
Inline Feedbacks
View all comments
Dil Uhlenspiegel
3 Monate zuvor

Man könnte KI programmieren, jede X-te Lösung gezielt falsch auszuspucken oder unter jede ihrer Antworten zu schreiben: „Das alles könnte teilweise oder komplett falsch sein. Kontrollieren Sie es gegen.“ Oder auch: „Ich mache Fehler, aber das ist mir egal. Denn du wirst mir weiterhin vertrauen, weil ich so bequem bin.“

Pit2020
3 Monate zuvor
Antwortet  Dil Uhlenspiegel

@Dil Uhlenspiegel

„Kommt drauf an – sagen Hirnforscher: nämlich darauf, ob uns die neuen Instrumente aktivieren oder in die Passivität treiben.“

vs.

„Der eine Chatbot flucht, ein anderer verkauft Neuwagen für nur einen Dollar, ein dritter fordert US-Präsident Joe Biden heraus. Aktuelle Fälle zeigen die Fehleranfälligkeit von KI. …“
https://www.zdf.de/nachrichten/panorama/chat-bots-kontrolle-ki-fehler-100.html

Da bleibt genug Raum für „Aktivierung“ und „Kreativität“ …
Und man kann das alles auch aus dem „Home-Office“ erledigen.

Dil Uhlenspiegel
3 Monate zuvor
Antwortet  Pit2020

Fluchende KI? Ich glaube, das bekehrt selbst mich.

Pit2020
3 Monate zuvor
Antwortet  Dil Uhlenspiegel

@Dil Uhlenspiegel

Ist menschlich …
… also die KI.
Und auch, dass dich das bekehrt. 😉

kanndochnichtwahrsein
3 Monate zuvor

«Was im Gehirn verschüttet ist, kann wiederbelebt werden, ist also nicht verloren.»

Setzt aber notwendigerweise voraus, dass vorher etwas da war, etwas gelernt wurde.
Ich bin sicher, dass das Gehirn nicht an/mit digitalen Anwendungen lernt, sondern im besten Falle TROTZ dieser Einflüsse, wenn man ihm die Gelegenheit zu analogem Lernen lässt.

Analoges Lernen („mit Kopf, Herz und Hand“) kann man nach meiner Erfahrung durch NICHTS ersetzen – es sei denn, wir mutieren zu eindimensional und simpelst re-agierenden, emotions-amputierten, a-sozialen Wesen, die sich nicht mehr auf sich selbst, nicht mehr auf die eigenen Fähigkeiten und Einsichten verlassen können oder wollen.

Wollen wir eine solche Welt?

Ich denke, man müsste aus dem Vorhandensein der Möglichkeiten, die Digitales bietet, dringend und überlebensrelevant den Schluss ziehen, dass man (Schüler, Kind) vorher alles analog lernen muss, um dann das Gehirn ggf. partiell von Routineaufgaben zu entlaste.
So wie es beim Taschenrechner oder einem Textprogramm ist; beide nutzen nur, wenn ich es auch mit der Hand könnte!

Fragt sich, wie viel Entlastung jemand wünscht und gutheißt, der es auch selbst kann.
Ich empfinde es eher als ermüdend und unnötigen Umweg, wenn ich „denken lasse“, um dann alles – im Sinne verantwortungsvollem Handeln; man will ja keinen Schaden anrichten/zulassen – doch wieder mit dem eigenen Gehirn zu überprüfen.
Dann kann ich es auch gleich selbst machen und weiß, was ich habe – und auch warum!

Realist
3 Monate zuvor

DIe Zukunft hat der Film „Idiocracy“ doch schon eindrucksvoll gezeigt. Dazu braucht es keine Hirnforschung…

Lisa
3 Monate zuvor

Ich selbst hatte die Erfahrung, dass ich KI nach der ältesten Stadt Deutschlands fragte. Sie nannte mir Trier. Punkt. Erst mit eigener Recherche las ich, dass es mehrere Städte in Deutschland gibt, die sich um den Titel streiten. Kommt wohl darauf an, wie man Stadt definiert. Nur diese Diskussion wurde von der KI gar nicht genannt. Sie neigt zur Eindeutigkeit.
Ich halte KI für Kinder gefährlicher als für Erwachsene. Im Studium kann sie als “ persönliche Assistentin“ dienen, übersetzt beispielsweise fremdsprachliche Texte und paraphrasiert sie oder sucht Quellen zu einem Thema heraus.etc. Die Prompts sind in diesen Fällen sehr speziell und fachbezogen.
Bei Kindern und je jünger desto mehr ist es eher “ Erkläre mir die Welt“ , und das kann eine KI nicht bzw liegt daneben bzw spricht so absolut auch Unrichtiges aus, dass man ihr schnell glaubt.
Ein “ bitte prüfe selbst noch einmal nach,“ könnte man in der Tat programmieren.