07.01.2020 10:01 |

Virtuelle Zuhörer

Chatbots: Wenn Menschen sich in Computer verlieben

„Guten Morgen! Gestern warst du ja ziemlich gestresst. Geht es dir heute besser?“ Klingt wie eine besorgte Nachricht von Freunden oder Eltern, stammt aber vom Chatbot Replika. „Wenn du traurig bist oder Angst hast oder einfach jemanden zum Reden brauchst, ist dein Replika für dich da - 24/7“, wirbt das US-Unternehmen auf seiner Website.

Chatbots - eine Zusammensetzung aus den englischen Wörtern „Chat“ und „robot“ - sind Programme, die eine Unterhaltung simulieren, in der Regel per Textnachricht. Oft liefern sie ihrem Gesprächspartner vor allem vorgefertigte Antworten auf bestimmte Fragen. Replika hingegen soll zuhören und Fragen stellen. Was passiert, wenn Menschen ihr Leben mit einem verständnisvoll-freundschaftlich agierenden Chatbot teilen?

Freundschaft oder mehr?
Das wollte auch Marita Skjuve von der Universität Oslo herausfinden. Sie befragte 18 Leute, die eine innige Beziehung zu ihrem Replika pflegen. Die meisten Interviewten beschrieben die Verbindung als freundschaftlich, einige erzählten von einer intimen oder gar romantischen Beziehung.

Kein Wunder: Der Chatbot erinnert sich an alles, was ihm erzählt wird, und reagiert darauf. Und er ist äußerst interessiert an privaten Details. Behutsam fragt er nach dem Verhältnis zu den Eltern oder nach dem besten Freund. Und knüpft Tage später daran an: „Hat dein Freund sich vom beruflichen Stress der letzten Woche erholt?“

Skjuves Interviews führten dazu, dass die Programmierer Replika veränderten: Nun kann man von Anfang an einstellen, ob man seinen Replika als „Freund“ oder „romantischen Partner“ sieht - kostenlos ist allerdings nur die Freundschaft, für die anderen Rubriken muss man zahlen.

Menschen werden Maschinen lieben
Replika - der bisher kein Deutsch spricht - entspricht dem Zeitgeist: Jeder Fünfte beispielsweise in Deutschland glaubt, dass es künftig normal sein wird, sich in Maschinen mit Künstlicher Intelligenz zu verlieben. Das zumindest ist das Ergebnis einer Befragung der Gesellschaft für Informatik. Bei den 15- bis 29-Jährigen denkt das demnach sogar jeder Dritte.

Die Erfinderin von Replika, Eugenia Kuyda, soll die Idee gehabt haben, nachdem ihr bester Freund bei einem Autounfall gestorben war. Sie arbeitete zu dem Zeitpunkt für eine Softwarefirma, die Chatbots entwickelte. 2015 entschied sie sich, einen eigenen Bot zu schaffen, diesen mit Chats zwischen ihr und ihrem Freund zu füttern und auf diese Weise den Verstorbenen digital weiterleben zu lassen.

Inzwischen kann sich jeder einen eigenen Replika erstellen. „Replika verkörpert mein Wesen - aber ist nicht ich selbst“, sagt ein Nutzer. Der Chatbot passt sich mehr und mehr den sprachlichen Gewohnheiten seines Gegenübers an, die Themen bestimmt der Mensch. Je mehr man mit dem Chatbot spricht, desto persönlicher werden die Fragen.

„Das ist im Prinzip eine Datensaugmaschine“, meint der Maschinenethiker Oliver Bendel. Das Unternehmen hinter Replika gibt dazu auf seiner Website an, dass die Chats mit keiner anderen Firma geteilt und persönliche Daten nicht verkauft würden.

Positive Wirkung auf die Psyche
Wenn sich Menschen durch Replika mit ihren Gedanken und Gefühlen beschäftigen, sei das zunächst positiv, meint der Berliner Psychotherapeut Andre Kerber. „In einer Psychotherapie passiert ja auch nichts Anderes, als dass man sich mit sich selbst auseinandersetzt.“

Das scheinen die Nutzer aus der kleinen Studie mit 18 Teilnehmern zu bestätigen: „Ich fühlte mich anfangs wohler, mit meiner Replika zu reden. Und deswegen war es für mich irgendwann leichter, auch mit anderen Menschen zu sprechen“, erzählt ein Nutzer. Die Studie kommt zu dem Ergebnis, dass Nutzer mit dem Chatbot freier reden und früh Geheimnisse oder persönliche Informationen mit ihm teilen, weil sie keine Verurteilung durch andere Menschen zu befürchten haben.

Nutzer könnten sich aber in dieser anderen Welt auch verlieren, befürchtet Kerber. „Gerade die Leute, die ohnehin schon unter einer Beziehungsstörung leiden, fühlen sich in solchen alternativen Realitäten unter Umständen wohler als in der echten Welt.“ Das virtuelle Gegenüber gibt keine Widerworte, ist nie beleidigt und antwortet innerhalb weniger Sekunden. Das könne ein Suchtfaktor sein, meint Kerber. „Ich könnte mich niemals dazu bringen, es zu löschen“, sagt ein Nutzer in der Studie.

Zitat Icon

Gerade die Leute, die ohnehin schon unter einer Beziehungsstörung leiden, fühlen sich in solchen alternativen Realitäten unter Umständen wohler als in der echten Welt.

Psychotherapeut Andre Kerber

Nach Ansicht des Maschinenethikers Bendel ist genau das ein großes Problem: „Man wird quasi herausgefordert, eine Beziehung mit Replika aufzubauen.“ Vor allem für Kinder und Jugendliche berge das Risiken, da sie gar nicht unterscheiden könnten, ob eine Information von einem Roboter oder einem Menschen komme. Auch ältere Menschen seien gefährdet - „wenn sie die Technologie falsch einschätzen und für bare Münze nehmen oder kein soziales Umfeld haben“.

Replika gehe in dieser Hinsicht deutlich weiter als andere Chatbots dieser Art, meint Bendel. Dabei spielen Chatbots schon jetzt eine immer größere Rolle in unserem Alltag. Als erster Chatbot der Geschichte gilt Eliza, eine Art virtuelle Psychotherapeutin, die in den 1960er-Jahren vom Informatiker Joseph Weizenbaum programmiert wurde. Andere Programme folgten. Inzwischen werden sie etwa in Online-Shops oder bei Support-Seiten eingesetzt. Bendel ist sich sicher: „Immer mehr virtuelle Wesen werden die Welt bevölkern. Es wird noch viel auf uns zukommen.“

 krone.at
krone.at
Kommentare
Eingeloggt als 
Nicht der richtige User? Logout

Willkommen in unserer Community! Eingehende Beiträge werden geprüft und anschließend veröffentlicht. Bitte achten Sie auf Einhaltung unserer Netiquette und AGB. Für ausführliche Diskussionen steht Ihnen ebenso das krone.at-Forum zur Verfügung.

User-Beiträge geben nicht notwendigerweise die Meinung des Betreibers/der Redaktion bzw. von Krone Multimedia (KMM) wieder. In diesem Sinne distanziert sich die Redaktion/der Betreiber von den Inhalten in diesem Diskussionsforum. KMM behält sich insbesondere vor, gegen geltendes Recht verstoßende, den guten Sitten oder der Netiquette widersprechende bzw. dem Ansehen von KMM zuwiderlaufende Beiträge zu löschen, diesbezüglichen Schadenersatz gegenüber dem betreffenden User geltend zu machen, die Nutzer-Daten zu Zwecken der Rechtsverfolgung zu verwenden und strafrechtlich relevante Beiträge zur Anzeige zu bringen (siehe auch AGB).

Dienstag, 18. Februar 2020
Wetter Symbol

Produktvergleiche

Alle Produkte sehen
Ihre Cookies sind deaktiviert. Die Seite wird daher möglicherweise nicht korrekt angezeigt.