Forscher der Stanford University haben ein Tool entwickelt, um die parteipolitische Feindseligkeit auf X spürbar zu verringern. Dabei würden keine Inhalte geblockt, sondern nur neu angeordnet, so die Wissenschaftler. Künftig könnte es sogar möglich sein, den Nutzern die Kontrolle über ihre eigenen Social-Media-Algorithmen zu überlassen – egal auf welcher Plattform.
Nach der Übernahme von Twitter im Jahr 2022 hatte Tech-Milliardär Elon Musk viele Beschränkungen auf dem inzwischen in X umbenannten Online-Nachrichtendienst aufgehoben, die Nutzer der Plattform vor Hassrede und Falschinformationen schützen sollten. Wer Musks rechte politische Ansichten teilt, dessen Stimme bekam mehr Gewicht bei dem Dienst.
Feed mit KI in Echtzeit neu sortiert
Das Stanford-Team entwickelte nun ohne Zusammenarbeit mit X eine Browser-Erweiterung, mit der die Feeds der Studienteilnehmer neu geordnet wurden. Beiträge, die antidemokratische Einstellungen und parteipolitische Feindseligkeit zum Ausdruck brachten, wurden dabei im Feed eines Nutzers nach unten verschoben.
Betroffen waren Inhalte, in denen Gewalt befürwortet oder die Inhaftierung von Anhängern und der gegnerischen Partei gefordert wurde. Dabei analysierte ein KI-Sprachmodell den X-Feed in Echtzeit. Im Gegensatz zu einem Werbeblocker, der als Browser-Erweiterung Werbeinhalte ausblendet, wurden bei dem Experiment der Stanford-Wissenschafter keine Inhalte gelöscht oder blockiert.
Erfolgreicher Feldversuch
Der Feldversuch wurde vor den Präsidentschaftswahlen 2024 mit 1256 Nutzern vorgenommen. Die Probanden wurden nach dem Zufallsprinzip zwei parallelen Experimenten zugewiesen, in denen ihre Feeds eine Woche lang dynamisch neu sortiert wurden. Die erste Gruppe bekam polarisierende Posts weiter vorn angezeigt, die zweite weiter hinten im Feed.
Bei denjenigen, deren antidemokratische Inhalte herabgestuft wurden, habe sich eine positivere Einstellung gegenüber der gegnerischen Partei gezeigt. Der Effekt zeigte sich parteiübergreifend und galt sowohl für Personen, die sich als liberal als auch solchen, die sich als konservativ eingestuft hatten.
Nutzer können Feeds selbst gestalten
„Social-Media-Algorithmen haben einen direkten Einfluss auf unser Leben, aber bisher hatten nur die Plattformen die Möglichkeit, sie zu verstehen und zu gestalten“, so Michael Bernstein, Professor für Informatik an der Stanford School of Engineering und leitender Autor der Studie. „Wir haben einen Ansatz vorgestellt, der Forschern und Endnutzern diese Möglichkeit bietet.“
Das Tool könnte auch Wege eröffnen, um Maßnahmen zu entwickeln, die nicht nur die parteipolitische Feindseligkeit mindern, sondern auch ein größeres soziales Vertrauen und einen gesünderen demokratischen Diskurs über Parteigrenzen hinweg fördern, sagte Bernstein.
Kleine Änderungen im Algorithmus mit großen Wirkungen
Josephine Schmitt, wissenschaftliche Koordinatorin am Center for Advanced Internet Studies (CAIS) in der deutschen Stadt Bochum, sagte, die Studie zeige robuste, teils recht starke Effekte auf die emotionalen Spannungen zwischen unterschiedlichen politischen Lagern.
„Die Studie macht damit deutlich, dass schon kleine algorithmische Eingriffe messbar die Gefühle gegenüber der politischen Gegenseite verschieben. Das stützt die grundsätzliche Aussage: Feed-Sortierung ist nicht neutral, sie wirkt auf Emotionen und damit auf affektive Polarisierung.“

Willkommen in unserer Community! Eingehende Beiträge werden geprüft und anschließend veröffentlicht. Bitte achten Sie auf Einhaltung unserer Netiquette und AGB. Für ausführliche Diskussionen steht Ihnen ebenso das krone.at-Forum zur Verfügung. Hier können Sie das Community-Team via unserer Melde- und Abhilfestelle kontaktieren.
User-Beiträge geben nicht notwendigerweise die Meinung des Betreibers/der Redaktion bzw. von Krone Multimedia (KMM) wieder. In diesem Sinne distanziert sich die Redaktion/der Betreiber von den Inhalten in diesem Diskussionsforum. KMM behält sich insbesondere vor, gegen geltendes Recht verstoßende, den guten Sitten oder der Netiquette widersprechende bzw. dem Ansehen von KMM zuwiderlaufende Beiträge zu löschen, diesbezüglichen Schadenersatz gegenüber dem betreffenden User geltend zu machen, die Nutzer-Daten zu Zwecken der Rechtsverfolgung zu verwenden und strafrechtlich relevante Beiträge zur Anzeige zu bringen (siehe auch AGB). Hier können Sie das Community-Team via unserer Melde- und Abhilfestelle kontaktieren.