
Uhl zufolge ist es ein Problem, dass die KI oft unbemerkt beeinflusst: «Dabei unterschätzen sie häufig, wie stark die Antworten die eigene Meinungsbildung beeinflussen können», sagt er über Nutzer, die Chatbots für Lebensfragen nutzen. Auf der anderen Seite warnt er vor übertriebener Skepsis: «Wenn es etwa darum geht, Röntgenbilder, MRTs oder andere medizinische Bilder zu beurteilen, ist die KI inzwischen meist besser als jeder Mensch.»
Wissenschaftler testen Chatsbots mit Rückfragen
Als Lösung für beide Probleme setzen Uhl und sein Team auf unterschiedliche Ansätze. Im privaten Bereich erproben sie Chatbots, die nach der sogenannten sokratischen Methode Rückfragen stellen, statt direkte Antworten zu geben – mit dem Ziel, das eigene Wertesystem zu schärfen. In einem Experiment mit Anhängern der US-amerikanischen Republikaner und Demokraten handelten Probanden nach solchen Gesprächen nachweislich fairer.
Für den Einsatz im Fachbereich arbeitet das Team im Projekt «Ethyde» mit dem Bayerischen Forschungsinstitut für Digitale Transformation daran, KI transparenter zu machen – etwa indem sie ihre Diagnosen begründet oder angibt, wie sicher sie sich ist. Bis Ende 2027 sollen erste Prototypen auf Medizinkongressen getestet werden. News4teachers / mit Material der dpa









Wenn Fachleute nicht zurückhaltend wären, würde überwiegend/ noch mehr Dreck auf den Markt geworfen.
Aber – und den Schuh müssen wir uns auch bald anziehen – mit KI werden wir besser Unterricht vorbereiten und Lehrprozesse besser steuern können, als wir es zuvor konnten (und besser, als uns lieb ist).
Schade… Die Planung macht mir sehr viel Spaß, aber die wird künftig drastisch verkürzt – und gegen die Ergebnisse der Planung von tausenden Lehrkräften kann ich nichts anführen. Machste nix :/