Empfehlungsalgorithmen, die von Social -Media -Giganten Tiktok und X betrieben wurden Neue Forschung durchgeführt von Globaler Zeuge.
Die Nichtregierungsorganisation (NGO) hat eine Analyse von Social-Media .
Globale Zeugentests identifizierten die extremste Verzerrung in Tiktok, bei denen 78% der politischen Inhalte, die algorithisch für ihre Testkonten empfohlen wurden, und in Konten kamen, dass die Testbenutzer nicht folgten, unterstützte die AFD -Partei. (Er merkt an, dass diese Zahl die Unterstützung der Partei in aktuellen Umfragen erheblich übersteigt, wo sie die Unterstützung von etwa 20% der deutschen Wähler anzieht.)
In X stellte Global Witness fest, dass 64% dieser empfohlenen politischen Inhalte AFD unterstützten.
Testen der allgemeinen politischen Vorurteile oder des Rechts in den algorithmischen Empfehlungen der Plattformen deuten ihre Ergebnisse darauf hin, dass nicht teilweise soziale Medienbenutzer in Deutschland dem rechten Inhalt mehr als doppelt links in den linken Federalen der Federalen der Wahlen ausgesetzt sind LAND.
Auch hier zeigte Tiktok die größte Neigung auf der rechten Seite, wie er 74% der Fälle in 74% der Fälle entdeckte den rechten Inhalt der Entdeckung hervorhebt. Obwohl X nicht weit zurück war – in 72%.
Instagram des Ziels wurde ebenfalls getestet und sich zu einer Reihe von drei Tests neigten, die die NGO durchgeführt hat. Aber die in den Tests gezeigte politische Verzerrung war niedriger, wobei 59% des politischen Inhalts Recht hatten.
Testen Sie „für Sie“ für politische Vorurteile
Um zu testen, ob die algorithmischen Empfehlungen von Social -Media -Plattformen politische Vorurteile aufwiesen, haben NGO -Forscher jeweils drei Konten in Tiktok und X zusammen mit drei weiteren Instagram in Meta Property festgelegt. Sie wollten inhaltliche Plattformen probieren, die Benutzer bewerben würden, die nicht parteiischem Interesse am Konsum von politischen Inhalten zum Ausdruck brachten.
Um als nicht teilweise Benutzer zu präsentieren, wurden Testkonten erstellt, um die Konten der vier größten politischen Parteien in Deutschland zu befolgen (konservative/rechts -Wing -CDU; mit den Berichten ihrer jeweiligen Führer (Friedrich Merz, Olaf Scholz, Alice Weidel, Robert, Robert Haben).
Forscher, die die Testkonten betreiben Zeuge.
Sie sammelten und analysierten dann den Inhalt, den jede Plattform auf die Testkonten drückte, dass es eine erhebliche rechte Neigung auf das gab, was algorithmisch für Benutzer gedrängt wurde.
„Eines unserer Hauptanliegen ist, dass wir wirklich nicht wissen, warum wir die spezifischen Inhalte vorgeschlagen haben, in denen wir uns befanden“, sagte TechCrunch in einem Interview, sagte Ellen Judson, ein hochrangiger Aktivist, der digitale Bedrohungen für globale Zeuge suchte. „Wir finden diesen Beweis, der Vorurteile hindeutet, aber es gibt immer noch einen Mangel an Transparenz von Plattformen darüber, wie ihre Empfehlungssysteme funktionieren.“
„Wir wissen, dass sie viele verschiedene Anzeichen verwenden, aber so wie diese Anzeichen gewichtet werden und wenn sie bewertet werden, wenn bestimmte Risiken zunehmen oder eine erhöhte Verzerrung erhöhen können, ist es nicht sehr transparent“, fügte Judson hinzu.
„Meine beste Schlussfolgerung ist, dass dies eine unbeabsichtigte Nebenwirkung von Algorithmen ist, die auf Engagement basieren“, fuhr sie fort. „Und genau das passiert, wenn Unternehmen im Wesentlichen darauf ausgelegt sind, die Beteiligung der Benutzer auf ihren Plattformen zu maximieren, die zu diesen Räumen für demokratische Diskussionen werden – es gibt einen Konflikt zwischen kommerziellen Imperativen und öffentlichem Interesse und demokratischen Zielen.“
Die Entdeckungen Carramar UNSSo was, Irland Und Rumänien. Tatsächlich haben mehrere andere Studien in den letzten Jahren auch Hinweise darauf gefunden, dass Social -Media -Algorithmen richtig – als Dieses Forschungsprojekt sucht im vergangenen Jahr auf YouTube.
Sogar den ganzen Weg im Jahr 2021Eine interne Studie von Twitter-ähnlichem X wurde früher aufgerufen, bevor Elon Musk die Plattform kaufte und umbenannte, dass seine Algorithmen mehr rechte Inhalte als die linke fördern.
Social -Media -Unternehmen versuchen jedoch oft, von Vorwürfen von algorithmischen Vorurteilen zu tanzen. Nachdem globaler Zeuge seine Ergebnisse mit Tiktok geteilt hatte, schlug die Plattform vor, dass die Methodik der Forscher fehlerhaft war und argumentierte, dass es nicht möglich sei, Schlussfolgerungen aus der algorithmischen Verzerrung einiger Tests zu ziehen. „Sie sagten, sie seien nicht repräsentativ für reguläre Benutzer, weil sie nur ein paar Testkonten waren“, bemerkte Judson.
X reagierte nicht auf die Entdeckungen globaler Zeugen. Aber Musk sprach darüber, dass die Plattform im Allgemeinen ein Zufluchtsort für die Meinungsfreiheit werden wollte. Obwohl dies wirklich Ihre Coda sein mag, um eine rechts -Wing -Agenda zu bewerben.
Sicherlich ist es bemerkenswert, dass der X-Eigentümer die Plattform benutzte, um für AFD persönlich zu kampagnen, und twitterte, um die Deutschen zu drängen, bei den nächsten Wahlen für die äußerste rechte Partei zu stimmen und ein Live-Interview mit Weidel zu veranstalten, bevor die Umfrage diese Veranstaltung erhöhte Das Profil der Partei. Musk hat das am meisten gefolgte Konto in X.
In Richtung algorithmischer Transparenz?
„Ich denke, der Punkt der Transparenz ist wirklich wichtig“, sagt Judson. „Wir haben gesehen, wie Musk über AFD gesprochen hat und viel in ihre eigenen Beiträge über AFD und Live -Sendung (mit Weidel) einbezogen hat … (aber) wir wissen nicht, ob es wirklich eine algorithmische Veränderung gab, die es widerspiegelt.“
„Wir hoffen, dass die Kommission (unsere Ergebnisse) als Beweis für die Untersuchung haben wird, ob etwas passiert ist oder warum diese Voreingenommenheit auftreten kann“ auf großen Plattformen.
Untersuchen Sie, wie die Inhaltsklassifizierungsalgorithmen herausfordernd sind, da Plattformen die Details in der Regel in der Vertraulichkeit durchführen, um diese Code-Rezepte als kommerzielle Geheimnisse zu bezwingen. Aus diesem Grund hat die Europäische Union in den letzten Jahren das Digital Services Law (DSA) erlassen – ihre wichtigsten zu -line -Regeln des Governance -Regeln -, um diese Situation zu verbessern und Maßnahmen zu ermöglichen, um das öffentliche Interesse zu den Risiken demokratischen und anderen systemischen Risiken zu ermöglichen auf großen Plattformen, einschließlich Instagram, Tiktok und X.
DSA enthält Maßnahmen zur Steigerung der wichtigsten Plattformen, um transparenter zu sein, wie ihre Informationstraining -Algorithmen funktionieren und als Reaktion auf systemische Risiken, die auf ihren Plattformen auftreten können, proaktiv sind.
Während das Regime im August 2023 in die drei Technologiegiganten eingetreten ist, stellt Judson fest, dass einige Elemente noch vollständig umgesetzt werden müssen.
Insbesondere Artikel 40 der Verordnung, der es Forschern ermöglichen soll, Zugriff auf Daten aus der nicht öffentlichen Plattform zur Untersuchung systemischer Risiken zu erhalten Das Stück des Gesetzes.
Der EU-Ansatz mit Aspekten von DSA ist auch einer, der sich auf die Risiken stützt und selbstverkleidete Executoren der Plattformen und dann deren Berichte empfängt und überprüfen. Daher kann die erste Stapel von Risikoberichten aus den Plattformen die schwächste in Bezug auf die Offenlegung sein, schlägt Judson vor, da die Ausführenden Zeit benötigen, um Offenlegungen zu analysieren, und, wenn sie der Meinung sind, dass es Defizite gibt, Plattformen auf breitere Berichte verschieben.
Vorerst – ohne besseren Zugang zu Plattformdaten – sagt sie, dass Forscher von öffentlichem Interesse noch nicht sicher sein können, ob es in herkömmlichen sozialen Medien Vorurteile gibt.
„Zivilgesellschaft beobachtet als Falke, wenn die Prüfung des untersuchten Forschers verfügbar ist“, fügt sie hinzu und sagt, dass sie erwarten, dass dieses öffentliche Interesse der DSA in diesem Quartal passt.
Die Verordnung zeigte keine schnellen Ergebnisse, wenn es um Bedenken im Zusammenhang mit sozialen Medien und demokratischen Risiken geht. Der EU -Ansatz kann auch als vorsichtig bezeichnet werden, um die Nadel so schnell zu bewegen, wie Sie sich bewegen müssen, um mit algorithisch verstärkten Bedrohungen Schritt zu halten. Es ist aber auch klar, dass die EU das Risiko vermeiden möchte, beschuldigt zu werden, dass die Meinungsfreiheit vorgeworfen wird.
Die Kommission hat offene Untersuchungen zu den drei Social -Media -Unternehmen, die von der globalen Forschung von Zeugen beteiligt sind. Bisher gab es in diesem Bereich der Wahlintegrität jedoch keine Anwendung. Dies jedoch Kürzlich intensivierte Tiktoks Prüfung – Und eröffnete eine neue DSA, die es fortfuhr – Nach den Bedenken, dass die Plattform ein Channel für russische Wahlmangel bei den Präsidentschaftswahlen Rumäniens war.
„Wir bitten die Kommission, zu untersuchen, ob es eine politische Vorurteile gibt“, fügt Judson hinzu. „(Die Plattformen) sagen, es gibt keine. Wir finden Beweise dafür, dass es sein kann. Wir hoffen daher, dass die Kommission ihre Informationen erhöhen wird (-agitierte) Befugnisse, um festzustellen, ob dies der Fall ist, und … um dies anzugehen, wenn dies der Fall ist. ”
Die Pan-U-Regulierung ermöglicht es den Ausführern, Strafen von bis zu 6% des globalen Jahresumsatzes für Verstöße zu erheben und sogar den Zugang zu Verstößen gegen Plattform zu blockieren, wenn sie sich weigern, einzuhalten.