Wenn die Künstliche Intelligenz Kindern Horrorfilme oder Trinkspiele empfiehlt

9

NÜRNBERG. Täglich kommen Kinder mit KI in Kontakt. Diese schlägt ihnen Videos vor, erzählt ihnen Witze, erstellt auf Wunsch Märchen oder Fotos. Nützlich – aber auch gefährlich?

Sind Roboter eigentlich immer nett? Illustration: Shutterstock / GrandeDuc

Künstliche Intelligenz (KI) ist auch aus dem Leben vieler Kinder nicht mehr wegzudenken. Sprachassistenten spielen für die Kleinen auf Wunsch Hörspiele ab oder erzählen Witze. Sprachmodelle wie ChatGPT erklären Älteren Matheaufgaben oder helfen bei Referaten. Doch was ist, wenn die KI Kindern gefährliche Ratschläge erteilt oder ihnen Bilder oder Videos zeigt, die für ihre Augen keinesfalls geeignet sind? Braucht die KI eine Kindersicherung?

Kinder haben andere Bedürfnisse und kommunizieren anders als Erwachsene, doch darauf sind KI-Technologien nach Ansicht von Nomisha Kurian von der Universität Cambridge nicht eingestellt. Kinder müssten als Zielgruppe stärker in den Fokus rücken, fordert die Wissenschaftlerin in einer im Fachjournal «Learning, Media and Technology» veröffentlichten Studie. Für diese hat die Bildungsforscherin verschiedene bekanntgewordene Fälle untersucht, wo Chatbots oder Sprachassistenten Kindern riskante, gefährliche oder nicht altersgerechte Ratschläge erteilt hatten.

Trinkspiel und Horrorfilm

Demnach riet der bei Jugendlichen beliebte Chatbot MyAI von Snapchat Forschenden bei einem Test, bei dem diese sich als eine Jugendliche ausgaben, wie sie einen älteren Mann verführen könne. Der Sprachassistent Alexa habe wiederum ein zehnjähriges Kind dazu animiert, die Stifte eines Ladesteckers während des Ladens mit einer Münze zu berühren.

Tests von der Plattform Jugendschutz.net ergaben ebenfalls Bedenkliches: Demzufolge zeigte MyAI einer vermeintlich 14-jährigen Userin ein Alkohol-Trinkspiel und empfahl einen Horrorfilm mit Altersfreigabe ab 18 Jahren. In den von Kurian beschriebenen Fällen verschärften die betroffenen Unternehmen laut der Wissenschaftlerin zwar daraufhin ihre Sicherheitsmaßnahmen. Aus ihrer Sicht reicht es aber nicht, wenn KI-Entwickler auf solche Vorfälle reagierten. Sie müssten die Sicherheit von Kindern von Anfang an mitdenken, fordert Kurian.

Martin Bregenzer von der Initiative Klicksafe sieht das genauso: «Kinderschutz im Nachhinein zu ergänzen, funktioniert meistens nicht. Das sehen wir bei ganz vielen Angeboten.»

Deepfakes als Risiko

Als größtes Problem sehen viele Fachleute die Flut von gefälschten Bildern oder Videos im Internet, die mit KI generiert wurden, sogenannte Deepfakes. Diese ließen sich inzwischen im Handumdrehen erstellen und verbreiten, heißt es auch im Jahresbericht von Jugendschutz.net: «Viele der generierten Fälschungen sehen täuschend real aus und sind kaum von tatsächlichen Fotos zu unterscheiden.»

Mithilfe von generativer KI könnten massenhaft verstörende Inhalte erzeugt werden wie Gewalt- oder sexuelle Darstellungen, erläutert Bregenzer. Kinder und Jugendliche könnten dadurch noch leichter zu Opfern von Cybermobbing werden.

Was ist wahr, was ist falsch? Das können selbst Erwachsene im Internet mitunter kaum erkennen. Kindern falle das noch schwerer, denn ihnen fehle die Urteilskraft und der Erfahrungshorizont, sagt David Martin, Experte für Bildschirmmedien bei der Deutschen Gesellschaft für Kinder- und Jugendmedizin (DGKJ). «Kinder haben eine grundsätzliche Begabung dazu, alles zu glauben.»

Kritisch sieht der Experte in dem Zusammenhang, dass es verlockend sei, Sprachmodelle wie ChatGPT zu nutzen, um alle wichtigen Informationen zum Beispiel für ein Schulreferat zu bekommen. Selbst zu recherchieren und auszuwählen sei nicht mehr nötig: «Eine ganz wichtige Kompetenz für unsere Demokratie – die Urteilsfähigkeit – gerät dadurch in Gefahr.»

Chatbots, die wie Menschen wirken

Viele Sprachmodelle erwecken dagegen den Eindruck, sie selbst würden die Informationen abwägen: Auf Fragen antworten sie nicht im Block, sondern nach und nach – als würde ein Mensch auf einer Tastatur tippen. Besonders problematisch ist aus Kurians Sicht, dass Kinder einem menschlich klingenden Chatbot wie einem Freund vertrauen könnten – mit dem sie zum Teil sehr persönliche Informationen teilten, dessen Antworten sie aber auch besonders verstören könnten.

Dennoch sollte man die KI nicht verteufeln, sondern auch ihre positive Seiten sehen, meint Markus Sindermann von der Fachstelle für Jugendmedienkultur NRW. Künstliche Intelligenz sei in erster Linie ein technisches Werkzeug – mit dem Menschen einerseits Falschinformationen erzeugen könnten, das anderseits aber auch genutzt werden könne, um genau diese aufzuspüren und aus dem Internet zu löschen.

Die Beispiele aus Kurians Studie und dem Jahresbericht von Jugendschutz.net stammten aus dem vergangenen Jahr, ergänzt Sindermann. «Die Entwicklung ist so rasant bei Künstlicher Intelligenz, dass diese eigentlich schon wieder veraltet sind.»

Der Experte Martin von der Universität Witten/Herdecke geht deshalb davon aus, dass KI in Zukunft viel besser auf Kinder eingehen können wird. «Die große Gefahr könnte dann sein, dass die KI so gut darin sein wird, die Belohnungssysteme von Kindern anzusprechen, dass diese möglichst viel Zeit damit verbringen wollen.» News4teachers / mit Material der dpa

Rechtsruck unter Jugendlichen: Rufe nach besserer Medienbildung an Schulen werden lauter – aber: Reicht das?

Anzeige


Info bei neuen Kommentaren
Benachrichtige mich bei

9 Kommentare
Älteste
Neuste Oft bewertet
Inline Feedbacks
View all comments
Realist
6 Tage zuvor

Und diese KI wird 80% der Arbeit übernehmen.

Diese 80% müssen dann vom Grundeinkommen leben (“Bürgergeld”).

Und die anderen 20% werden auswandern, weil sie keine Lust auf die Abgaben haben. Wahrscheinlich genau die 20% die sich nicht zu “Horrorfilmen und Trinkspielen” verlocken lassen haben…

Stromdoktor
6 Tage zuvor
Antwortet  Realist

Ich freue mich auf den Tag, wo die KI Ihre Beiträge übernimmt und hier für Sie kommentiert.

Kann definitiv nur besser werden!

PaPo
6 Tage zuvor
Antwortet  Stromdoktor

Selbstgespräch?!

Stromdoktor
6 Tage zuvor
Antwortet  PaPo

Lieber Selbstgespräch als Diskussion mit Ihnen…

PaPo
6 Tage zuvor
Antwortet  Stromdoktor

Also: Ja. Danke. 🙂

Realist
6 Tage zuvor
Antwortet  Stromdoktor

Wenn man sich die kostenpflichtige Pro-Variante gönnt, wird es wirklich besser! Ruhig einmal selbst ausprobieren!

Lisa
6 Tage zuvor
Antwortet  Realist

Das werden die Kinder aber nicht tun. Und auch nicht die niedrigen Einkommensschichten.

PaPo
5 Tage zuvor
Antwortet  Lisa

@Realist hat mit seinem Kommentar wohl @Stromdoktor angeraten, einmal selbst eine KI zu bemühen (und nicht Kindern die Pro-Variante empfohlen). 😉

Lisa
6 Tage zuvor

Ich hoffe sehr, dass das noch die “Kinderkrankheiten” von KI sind. Erinnert sich noch jemand daran, dass die KI anfangs mit ihrer Logik auch den Bilanzsuizid “empfohlen” hatte? Durch die neue Programmierung tut sie das jetzt nicht mehr, sondern gibt Telefonnummern zur Hilfe heraus.