Start IT/Tech Der Moderationsbericht 2024 von Bluesky zeigt, wie schnell schädliche Inhalte zunahmen, als...

Der Moderationsbericht 2024 von Bluesky zeigt, wie schnell schädliche Inhalte zunahmen, als neue Benutzer hinzukamen

8
0
Der Moderationsbericht 2024 von Bluesky zeigt, wie schnell schädliche Inhalte zunahmen, als neue Benutzer hinzukamen

Bluesky erlebte letztes Jahr ein explosionsartiges Wachstum. Dies zwingt die Plattform, ihre Moderationsbemühungen zu verstärken. In der kürzlich veröffentlichten Version Moderationsbericht Für das Jahr 2024 gab Bluesky an, dass es um etwa 23 Millionen Nutzer gewachsen sei, von 2,9 Millionen Nutzern auf fast 26 Millionen. Und Moderatoren erhielten siebzehnmal so viele Nutzerberichte wie im Jahr 2023: 6,48 Millionen im Jahr 2024 im Vergleich zu 358.000 im Jahr zuvor.

Die meisten dieser Meldungen bezogen sich auf „Belästigung, Trolling oder Intoleranz“, Spam und irreführende Inhalte (einschließlich Identitätsdiebstahl und Fehlinformationen). Das Vorhandensein von Konten, die vorgeben, andere Personen zu sein im Zuge des Popularitätsanstiegs von Bluesky und der Plattform mit einem „aggressiveren“ Ansatz, um dagegen vorzugehen. Damals hieß es, man habe sein Moderationsteam vervierfacht. Dem neuen Bericht zufolge ist das Moderationsteam von Bluesky auf etwa 100 Personen angewachsen und stellt immer noch neue Mitarbeiter ein. „Einige Moderatoren spezialisieren sich auf bestimmte Politikbereiche, beispielsweise auf Spezialagenten für Kindersicherheit“, heißt es darin.

Zu den weiteren Kategorien, über die Bluesky nach eigenen Angaben viele Berichte erhalten hat, gehören „illegale und dringende Probleme“ und unerwünschte sexuelle Inhalte. Hinzu kamen 726.000 Meldungen, die als „Sonstige“ gekennzeichnet waren. Bluesky gibt an, im vergangenen Jahr 146 von insgesamt 238 Anfragen von „Strafverfolgungsbehörden, Regierungen und Anwaltskanzleien“ erfüllt zu haben.

Die Plattform plant, in diesem Jahr einige Änderungen an der Art und Weise vorzunehmen, wie sie mit Meldungen und Einwänden umgeht. Dadurch soll die Benutzerkommunikation rationalisiert werden, beispielsweise durch die Bereitstellung von Aktualisierungen für Benutzer über die Maßnahmen, die sie auf der Grundlage der von ihnen gemeldeten Inhalte ergriffen hat, und darüber hinaus , sodass Benutzer direkt in der App gegen Deaktivierungsentscheidungen Berufung einlegen können. Moderatoren löschten im Jahr 2024 66.308 Konten, während die automatisierten Systeme 35.842 Spam- und Bot-Profile löschten. „Mit Blick auf das Jahr 2025 investieren wir in stärkere proaktive Erkennungssysteme, um die Benutzerberichterstattung zu ergänzen, da ein wachsendes Netzwerk mehrere Erkennungsmethoden erfordert, um bösartige Inhalte schnell zu identifizieren und zu bekämpfen“, sagte Bluesky.

Quelle link

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein