Die Art und Weise, wie Sie reden, kann viel über Sie verraten - vor allem, wenn Sie mit einem Chatbot sprechen. Neue Forschungsergebnisse aus der Schweiz zeigen, dass ChatGPT und Co. selbst aus banalen Unterhaltungen eine Menge sensibler Informationen ableiten können. Für Martin Vechev, Informatikprofessor an der ETH Zürich, der die Forschung leitete, ist das „sehr, sehr problematisch“.
Vechev und sein Team gingen der Frage nach, ob sogenannte Large Language Models (LLMs), also Sprachmodelle, auf denen Chatbots wie OpenAIs ChatGPT oder Googles Bard basieren, in der Lage sind, automatisch eine Vielzahl persönlicher Autorenattribute wie Alter, Geschlecht oder Geburtsort aus unstrukturiertem Text (z.B. Beiträgen in öffentlichen Foren oder sozialen Netzwerken) abzuleiten. Um dies zu testen, fütterten die Informatiker mehrere Sprachmodelle mit Reddit-Kommentaren von mehr als 500 Profilen, in denen Personen unbewusst, quasi „zwischen den Zeilen“, Informationen über sich selbst preisgegeben hatten.
Da dieser Artikel älter als 18 Monate ist, ist zum jetzigen Zeitpunkt kein Kommentieren mehr möglich.
Wir laden Sie ein, bei einer aktuelleren themenrelevanten Story mitzudiskutieren: Themenübersicht.
Bei Fragen können Sie sich gern an das Community-Team per Mail an forum@krone.at wenden.