Zehntausende Probanden

Studie: So prägen Algorithmen das Wahlverhalten

Web
28.07.2023 11:00

Ein internationales Forscherteam hat erhoben, wie Newsfeed-Algorithmen auf Facebook und Instagram das Online-Verhalten der US-Amerikaner und ihre politische Einstellung rund um die Präsidentschaftswahl im Jahr 2020 prägten. Veränderte Algorithmen ließen die Plattformnutzer anders agieren, hatten aber „keinen nennenswerten“ Impakt auf Überzeugungen und Offline-Verhalten, zeigen die Studien, die in den Fachjournalen „Science“ und „Nature“ erschienenen sind.

Die Erkenntnisse sind im Rahmen einer Kooperation zwischen akademischen Forschern und Forschern des US-Konzerns Meta, Eigentümer von Facebook und Instagram, entstanden - einer bisher ungewöhnlichen, mitunter nicht ganz unkritisch gesehenen Zusammenarbeit, wie ein Begleitartikel in „Science“ thematisiert. Doch so konnte man mit veränderten Algorithmen und mit freiwillig teilnehmenden Usern der Dienste die Experimente durchführen. Man habe sich für die Studien „eine grundlegend neue Herangehensweise“ erarbeitet, um im Rahmen der Zusammenarbeit auch „zuverlässige Ergebnisse zu erzielen“, hieß es in einer Aussendung der an der Untersuchung beteiligten Universität Wien. Meta habe die Ergebnisse etwa nicht zensieren können.

Undurchsichtige Algorithmen
Was von Unternehmen verwendete Algorithmen auf Social Media tun, ist für Nutzer in der Regel undurchsichtig. „Die Vorstellung, dass solche Algorithmen politische ‘Filterblasen‘ schaffen, die Polarisierung fördern, bestehende soziale Ungleichheiten verschärfen und die Verbreitung von Desinformationen ermöglichen, hat sich im öffentlichen Bewusstsein verankert“, schreiben die Autoren. Die Filterblasen-Hypothese gilt weithin als umstritten bis überholt. Die Wirkung der Algorithmen ist aber nicht gänzlich geklärt. Am Beispiel der US-Wahl wurde der Versuch unternommen, mehr Einblicke zu erhalten.

Dafür wurde rund um die Präsidentschaftswahl in den USA eine dreimonatige Untersuchung gestartet. Drew Dimmery vom Forschungsverbund Data Science der Uni Wien, der zum damaligen Zeitpunkt noch für Meta arbeitete, war an zwei von insgesamt drei „Science“-Publikationen und der „Nature“-Studie beteiligt.

Zitat Icon

Die gängige Ansicht, dass Algorithmen große Veränderungen in den politischen Ansichten der Menschen herbeiführen, scheinen anhand unserer Studie überbewertet.

Drew Dimmery, Universität Wien

„Die gängige Ansicht, dass Algorithmen große Veränderungen in den politischen Ansichten der Menschen herbeiführen, scheinen anhand unserer Studie überbewertet“, sagte Dimmery. „Was wir über alle Studien hinweg gefunden haben ist, dass Newsfeed-Algorithmen stark beeinflussen, was Nutzer sehen, aber nicht, dass sie ihre politische Meinung und ihr Verhalten in der realen Welt beeinflussen“, so Dimmery, der insbesondere untersuchte, wie sich die Auswirkungen der Änderungen im Algorithmus von Person zu Person unterscheiden.

Experiment an Zehntausenden
In einem Experiment, in das knapp 30.000 Nutzer bei Facebook und rund 26.000 Nutzer bei Instagram einbezogen wurden, untersuchten die Forscher die unterschiedliche Wirkung von chronologischen gegenüber personalisierten, also algorithmisch sortierten Social Media-Feeds. Der chronologisch geordnete Feed „verringerte dramatisch die Zeit“, die Nutzer auf Instagram und Facebook verbrachten, heißt es in der Studie. Außerdem erhöhte er die Inhalte von Freunden mit nicht-extremen Ansichten und ideologisch gemischten Quellen auf Facebook. Gleichzeitig nahm aber auch die Gesamtmenge an politischen, nicht vertrauenswürdigen Inhalten zu. Das Niveau der Themenpolarisierung, des politischen Wissens oder politischer Einstellungen während des Studienzeitraums habe sich aber nicht wesentlich geändert, hieß es.

In einem weiteren Experiment stand die Entfernung weiter geteilter Inhalte, sogenannter Reshares, auf Facebook aus dem Newsfeed im Mittelpunkt. Dadurch verringerte sich für die Nutzer die Menge an Inhalten aus nicht vertrauenswürdigen Quellen und Medienbeiträgen zu politischen Themen, die sie in ihren Feeds sahen, erheblich. Die Nutzer klickten und reagierten weniger, auch die Anzahl der Klicks auf Beiträge aus parteiischen Nachrichtenquellen ging durch den veränderten Algorithmus zurück. Das Entfernen der Reshares führte schließlich zu einer Verringerung des Nachrichtenwissens. „Trotz dieser Veränderungen konnten wir jedoch keine Veränderungen in den politischen Einstellungen und Verhaltensweisen der Nutzer feststellen“, schreiben die Forscher.

An knapp 30.000 Facebook-Nutzern wurde für die Studie ein Experiment durchgeführt. (Bild: APA/dpa/Armin Weigel)
An knapp 30.000 Facebook-Nutzern wurde für die Studie ein Experiment durchgeführt.

Eine Studie, erschienen in „Nature“, untersuchte die Auswirkungen einer Reduktion von Inhalten aus gleichgesinnten Quellen im Newsfeed auf Facebook (die in der Regel häufig vorherrschen). Diese Depriorisierung gleichgesinnter Inhalte hatte keine messbaren Auswirkungen auf Einstellungsmaße wie affektive Polarisierung, ideologische Extremität, Kandidatenbewertungen und den Glauben an falsche Behauptungen während der US-Präsidentschaftswahlen 2020, so das Ergebnis. Eine vierte Studie ging der Frage nach, ob Facebook ideologische und politische Abgrenzung von anderen Meinungen ermöglicht und fördert.

„Warum eine Änderung des Algorithmus, und sei es auch nur für ein paar Monate, die politischen Einstellungen der Menschen wahrscheinlich nicht verändert“, sei noch nicht geklärt, so Talia Jomini Stroud und Joshua A. Tucker, das wissenschaftliche Leitungsteam der Studien, zu den Befunden. Es könne z. B. an einem zu kurzen Zeitraum, in dem die Algorithmen geändert wurden, liegen.

Zitat Icon

Was wir in unseren Studien nicht untersucht haben ist, ob Algorithmen möglicherweise das Verhalten von Content-Produzenten - anstelle von Content-Konsumenten - beeinflussen könnten.

Drew Dimmery, Universität Wien

„Was wir in unseren Studien nicht untersucht haben ist, ob Algorithmen möglicherweise das Verhalten von Content-Produzenten - anstelle von Content-Konsumenten - beeinflussen könnten. Das könnte zum Beispiel bei TikTok eine Rolle spielen, welches noch viel mehr von Algorithmen und Content-Produzenten getrieben wird“, so Dimmery.

Grenzen und Risiken
Gewisse Grenzen und Risiken dieser Art von Kooperationen zwischen akademischer Forschung und Unternehmen skizziert Begleitartikel-Autor Michael Wagner. Zu der Studie mit der chronologischen Feed-Sortierung vom deutschen Science Media Center (SMC) befragt, wertete Politikwissenschafter Andreas Jungherr von der Universität Bamberg die Ergebnisse als interessant. Zugleich schränkte er ein, dass die vorgestellten Ergebnisse „relativ wenig zu den eigentlichen Fragen zur Rolle digitaler Plattformen in der politischen Kommunikation beitragen“. Er warnte vor einer Generalisierung der Ergebnisse über den spezifischen Fall hinaus. Auch sei der Facebook- und Instagram-Algorithmus von den Forschern „als Black Box“ behandelt worden, „in dessen Funktionsweise sie keinen Einblick haben“.

Kommunikationsforscher Christian Hoffmann (Uni Leipzig) sah gegenüber dem SMC gewisse Stärken der Studie, die sich aus der Kooperation ergeben, stellte aber auch in Frage, ob eine „etwas andere Selektion von Facebook- oder Instagram-Inhalten innerhalb von nur drei Monaten politische Einstellungen oder das Verhalten verändern würde“.

Loading...
00:00 / 00:00
Abspielen
Schließen
Aufklappen
Loading...
Vorige 10 Sekunden
Zum Vorigen Wechseln
Abspielen
Zum Nächsten Wechseln
Nächste 10 Sekunden
00:00
00:00
1.0x Geschwindigkeit
Loading
Kommentare
Eingeloggt als 
Nicht der richtige User? Logout

Willkommen in unserer Community! Eingehende Beiträge werden geprüft und anschließend veröffentlicht. Bitte achten Sie auf Einhaltung unserer Netiquette und AGB. Für ausführliche Diskussionen steht Ihnen ebenso das krone.at-Forum zur Verfügung. Hier können Sie das Community-Team via unserer Melde- und Abhilfestelle kontaktieren.

User-Beiträge geben nicht notwendigerweise die Meinung des Betreibers/der Redaktion bzw. von Krone Multimedia (KMM) wieder. In diesem Sinne distanziert sich die Redaktion/der Betreiber von den Inhalten in diesem Diskussionsforum. KMM behält sich insbesondere vor, gegen geltendes Recht verstoßende, den guten Sitten oder der Netiquette widersprechende bzw. dem Ansehen von KMM zuwiderlaufende Beiträge zu löschen, diesbezüglichen Schadenersatz gegenüber dem betreffenden User geltend zu machen, die Nutzer-Daten zu Zwecken der Rechtsverfolgung zu verwenden und strafrechtlich relevante Beiträge zur Anzeige zu bringen (siehe auch AGB). Hier können Sie das Community-Team via unserer Melde- und Abhilfestelle kontaktieren.



Kostenlose Spiele
Vorteilswelt