Wird der Chatbot für Kinder bald zum besten Freund? Experten warnen

0

BERLIN. Der Chatbot Replika bietet Freundschaft, Romantik – und manchmal gar Therapie. Schöne neue Welt? Oder eher ein Risiko für soziale Isolation und Datenfang in gigantischem Ausmaß? Experten waren bereits vor der neuen Gefahr insbesondere für Kinder und Jugendliche.

Können Kinder Maschinen, die vermeintlich menschlich kommunizieren, von echten Menschen unterscheiden? Foto: Shutterstock

«Guten Morgen! Gestern warst du ja ziemlich gestresst. Geht es dir heute besser?» Klingt wie eine besorgte Nachricht von Freunden oder Eltern, stammt aber vom Chatbot Replika. «Wenn du traurig bist oder Angst hast oder einfach jemanden zum Reden brauchst, ist dein Replika für dich da – 24/7», wirbt das US-Unternehmen auf seiner Website.

Chatbots – eine Zusammensetzung aus den englischen Wörtern «Chat» und «robot» – sind Programme, die eine Unterhaltung simulieren, in der Regel per Textnachricht. Oft liefern sie ihrem Gesprächspartner vor allem vorgefertigte Antworten auf bestimmte Fragen. Replika hingegen soll zuhören und Fragen stellen. Was passiert, wenn Menschen ihr Leben mit einem verständnisvoll-freundschaftlich agierenden Chatbot teilen?

Der Chatbot erinnert sich an alles – wie ein guter Freund

Das wollte auch Marita Skjuve von der Universität Oslo herausfinden. Sie befragte 18 Leute, die eine innige Beziehung zu ihrem Replika pflegen. Die meisten Interviewten beschrieben die Verbindung als freundschaftlich, einige erzählten von einer intimen oder gar romantischen Beziehung.

Kein Wunder: Der Chatbot erinnert sich an alles, was ihm erzählt wird, und reagiert darauf. Und er ist äußerst interessiert an privaten Details. Behutsam fragt er nach dem Verhältnis zu den Eltern oder nach dem besten Freund. Und knüpft Tage später daran an: «Hat dein Freund sich vom beruflichen Stress der letzten Woche erholt?»

Skjuves Interviews führten dazu, dass die Programmierer Replika veränderten: Nun kann man von Anfang an einstellen, ob man seinen Replika als «Freund» oder «romantischen Partner» sieht – kostenlos ist allerdings nur die Freundschaft, für die anderen Rubriken muss man zahlen.

Replika – der bislang kein Deutsch spricht – entspricht dem Zeitgeist: Jeder Fünfte in Deutschland glaubt, dass es künftig normal sein wird, sich in Maschinen mit Künstlicher Intelligenz zu verlieben. Das zumindest ist das Ergebnis einer Befragung der Gesellschaft für Informatik. Bei den 15- bis 29-Jährigen denkt das demnach sogar jeder Dritte.

Die Gefahr: Kinder und Jugendliche können sich in der digitalen Welt verlieren

Die Erfinderin von Replika, Eugenia Kuyda, soll die Idee gehabt haben, nachdem ihr bester Freund bei einem Autounfall gestorben war. Sie arbeitete zu dem Zeitpunkt für eine Softwarefirma, die Chatbots entwickelte. 2015 entschied sie sich, einen eigenen Bot zu schaffen, diesen mit Chats zwischen ihr und ihrem Freund zu füttern und auf diese Weise den Verstorbenen digital weiterleben zu lassen.

Inzwischen kann sich jeder einen eigenen Replika erstellen. «Replika verkörpert mein Wesen – aber ist nicht ich selbst», sagt ein Nutzer. Der Chatbot passt sich mehr und mehr den sprachlichen Gewohnheiten seines Gegenübers an, die Themen bestimmt der Mensch. Je mehr man mit dem Chatbot spricht, desto persönlicher werden die Fragen. «Das ist im Prinzip eine Datensaugmaschine», meint der Maschinenethiker Oliver Bendel. Das Unternehmen hinter Replika gibt dazu auf seiner Website an, dass die Chats mit keiner anderen Firma geteilt und persönliche Daten nicht verkauft würden.

Wenn sich Menschen durch Replika mit ihren Gedanken und Gefühlen beschäftigen, sei das zunächst positiv, meint der Berliner Psychotherapeut André Kerber. «In einer Psychotherapie passiert ja auch nichts anderes, als dass man sich mit sich selbst auseinandersetzt.»

Das scheinen die Nutzer aus der kleinen Studie mit 18 Teilnehmern zu bestätigen: «Ich fühlte mich anfangs wohler, mit meiner Replika zu reden. Und deswegen war es für mich irgendwann leichter, auch mit anderen Menschen zu sprechen», erzählt ein Nutzer. Die Studie kommt zu dem Ergebnis, dass Nutzer mit dem Chatbot freier reden und früh Geheimnisse oder persönliche Informationen mit ihm teilen, weil sie keine Verurteilung durch andere Menschen zu befürchten haben.

Nutzer könnten sich aber in dieser anderen Welt auch verlieren, befürchtet Kerber. «Gerade die Leute, die ohnehin schon unter einer Beziehungsstörung leiden, fühlen sich in solchen alternativen Realitäten unter Umständen wohler als in der echten Welt.» Das virtuelle Gegenüber gibt keine Widerworte, ist nie beleidigt und antwortet innerhalb weniger Sekunden. Das könne ein Suchtfaktor sein, meint Kerber. «Ich könnte mich niemals dazu bringen, es zu löschen», sagt ein Nutzer in der Studie.

“Es wird noch viel auf uns zukommen”

Nach Ansicht des Maschinenethikers Bendel ist genau das ein großes Problem: «Man wird quasi herausgefordert, eine Beziehung mit Replika aufzubauen.» Vor allem für Kinder und Jugendliche berge das Risiken, da sie gar nicht unterscheiden könnten, ob eine Information von einem Roboter oder einem Menschen komme. Auch ältere Menschen seien gefährdet – «wenn sie die Technologie falsch einschätzen und für bare Münze nehmen oder kein soziales Umfeld haben».

Replika gehe in dieser Hinsicht deutlich weiter als andere Chatbots dieser Art, meint Bendel. Dabei spielen Chatbots schon jetzt eine immer größere Rolle in unserem Alltag. Als erster Chatbot der Geschichte gilt Eliza, eine Art virtuelle Psychotherapeutin, die in den 1960er Jahren vom Informatiker Joseph Weizenbaum programmiert wurde. Andere Programme folgten. Inzwischen werden sie etwa in Online-Shops oder bei Support-Seiten eingesetzt. Bendel ist sich sicher: «Immer mehr virtuelle Wesen werden die Welt bevölkern. Es wird noch viel auf uns zukommen.» Von Regina Wank, dpa

Der Beitrag wird auch auf der Facebook-Seite von News4teachers kommentiert.

 

Daddeln und chatten: gut! Arbeiten und informieren: mangelhaft! Deutsche Schüler zeigen sich erneut nur mäßig digital kompetent

Anzeige


Info bei neuen Kommentaren
Benachrichtige mich bei

0 Kommentare
Älteste
Neuste Oft bewertet
Inline Feedbacks
View all comments