Apfel wird erneut mit einem konfrontiert Milliardenklage, Tausende von Opfern äußern sich gegen das Unternehmen wegen seiner angeblichen Mittäterschaft bei der Verbreitung von Material zum sexuellen Missbrauch von Kindern (CSAM).
In einer am 7. Dezember eingereichten Klage wird dem Technologieriesen Folgendes vorgeworfen: Verzicht auf verpflichtende Meldepflichten – was von in den USA ansässigen Technologieunternehmen verlangt, Fälle von CSAM dem National Center for Missing & Exploited Children (NCMEC) zu melden – und die Verbreitung von CSAM ermöglicht. Durch die Nichtumsetzung versprochener Sicherheitsmechanismen habe Apple „defekte Produkte“ an bestimmte Kundengruppen (CSAM-Opfer) verkauft, heißt es in der Klage.
Einige Kläger behaupten, sie seien durch die Verbreitung von Inhalten lange nach ihrer Kindheit immer wieder traumatisiert worden, weil Apple sich darauf konzentriert habe, neue Fälle von CSAM zu verhindern und junge Benutzer zu fördern.
„Tausende mutige Überlebende melden sich und fordern von einem der erfolgreichsten Technologieunternehmen der Welt Rechenschaftspflicht. „Apple hat sich nicht nur geweigert, diesen Opfern zu helfen, sondern hat auch damit geworben, dass es auf seiner Plattform oder seinen Geräten kein Material über sexuellen Kindesmissbrauch hat, was den anhaltenden Schaden für diese Opfer exponentiell erhöht“, schrieb Anwältin Margaret E. Mabie.
Zerstörbare Lichtgeschwindigkeit
Das Unternehmen hat im Rahmen seiner umfassenderen Datenschutzverpflichtungen eine strenge Kontrolle über seine iCloud-Produkte und Benutzerbibliotheken aufrechterhalten. Im Jahr 2022, Apple Pläne wurden verworfen für ein umstrittenes Tool, das iCloud-Fotobibliotheken automatisch nach anstößigem oder problematischem Material, einschließlich CSAM, durchsucht und markiert. Das Unternehmen verwies bei seiner Entscheidung, die Scanfunktion nicht mehr einzuführen, auf wachsende Bedenken hinsichtlich der Privatsphäre der Benutzer und der Massenüberwachung durch Big Tech. Die Entscheidung von Apple wurde von Datenschutzgruppen und Aktivisten auf der ganzen Welt weitgehend unterstützt. In der neuen Klage wird jedoch behauptet, dass der Technologieriese diese Cybersicherheitsmaßnahmen lediglich genutzt habe, um seinen Meldepflichten zu entgehen.
„Materialien über sexuellen Missbrauch von Kindern sind abscheulich und wir setzen uns dafür ein, die Art und Weise zu bekämpfen, in der Raubtiere Kinder gefährden“, schrieb Apple-Sprecher Fred Sainz als Antwort auf die Klage. „Wir entwickeln dringend und aktiv Innovationen, um diese Verbrechen zu bekämpfen, ohne die Sicherheit und Privatsphäre aller unserer Benutzer zu gefährden. Beispielsweise machen Funktionen wie „Communication Safety“ Kinder darauf aufmerksam, wenn sie Inhalte mit Nacktheit empfangen oder zu versenden versuchen, und tragen so dazu bei, die Kette der Nötigung zu durchbrechen, die zum sexuellen Missbrauch von Kindern führt. Wir konzentrieren uns weiterhin stark auf den Aufbau von Schutzmaßnahmen, die dazu beitragen, die Ausbreitung von CSAM zu verhindern, bevor sie beginnt.“
Technologieunternehmen tun es hatte Mühe, es unter Kontrolle zu halten die Verbreitung anstößigen Materials im Internet. Ein Bericht der britischen Aufsichtsbehörde aus dem Jahr 2024 Nationale Vereinigung zur Verhütung von Grausamkeit gegenüber Kindern (NSPCC) beschuldigte Apple massiv unterberichtet die Menge an CSAM, die seine Produkte teilen, wobei das Unternehmen im Jahr 2023 nur 267 globale CSAM-Berichte an NCMEC übermittelt. Die Konkurrenten Google und Meta meldeten mehr als 1 Million bzw. 30 Millionen Fälle. Unterdessen hat die wachsende Besorgnis über den Aufstieg von digital verändertem oder synthetischem CSAM die Regulierungslandschaft verkompliziert und dazu geführt, dass Technologiegiganten und Social-Media-Plattformen aufholen müssen.
Während Apple möglicherweise mit einer Klage in Höhe von 1 Milliarde US-Dollar rechnen muss, wenn die Klage von einer Jury befürwortet wird, hat die Entscheidung noch größere Auswirkungen auf die Branche und die Datenschutzbemühungen insgesamt. Das Gericht könnte beschließen, Apple zu zwingen, sein Tool zum Scannen von Fotobibliotheken wiederzubeleben oder andere branchenführende Funktionen zu implementieren, um anstößige Inhalte zu entfernen, was einen direkteren Weg zur staatlichen Überwachung ebnet und einen weiteren Schlag versetzt Abschnitt 230 Schutzmaßnahmen.