Apple wird wegen seiner Entscheidung verklagt, kein System zu implementieren, das iCloud-Fotos nach Material über sexuellen Missbrauch von Kindern (CSAM) scannt.
In der Klage wird argumentiert, dass die Opfer dadurch gezwungen werden, ihr Trauma noch einmal zu durchleben, wenn nicht mehr unternommen wird, um die Verbreitung dieses Materials zu stoppen. laut der New York Times. In der Klage wird beschrieben, dass Apple „ein weithin gelobtes verbessertes Design zum Schutz von Kindern“ ankündigt, es aber versäumt, „diese Designs umzusetzen oder Schritte zu unternehmen, um dieses Material zu erkennen und einzuschränken“.
Apple hat das System erstmals angekündigt im Jahr 2021 und erklärte, dass dies der Fall sein würde Verwenden Sie digitale Signaturen vom National Center for Missing and Exploited Children und anderen Gruppen, um bekannte CSAM-Inhalte in den iCloud-Bibliotheken der Benutzer zu erkennen. Allerdings schien das Unternehmen diese Pläne aufgegeben zu haben, nachdem Sicherheits- und Datenschutzbefürworter dies angedeutet hatten eine Hintertür zur staatlichen Überwachung schaffen.
Berichten zufolge stammt die Klage von einer 27-jährigen Frau, die unter einem Pseudonym Apple verklagt. Sie sagte, ein Verwandter habe sie belästigt, als sie noch ein Kind war, und Bilder von ihr im Internet geteilt, und sie erhalte immer noch fast täglich Mitteilungen von den Behörden, dass jemand beschuldigt werde, diese Bilder zu besitzen.
Der an der Klage beteiligte Anwalt James Marsh sagte, es gebe eine potenzielle Gruppe von 2.680 Opfern, die in diesem Fall Anspruch auf Entschädigung haben könnten.
TechCrunch hat Apple um einen Kommentar gebeten. Ein Unternehmenssprecher sagte gegenüber The Times, dass das Unternehmen „dringend und aktiv Innovationen vornimmt, um diese Verbrechen zu bekämpfen, ohne die Sicherheit und Privatsphäre aller unserer Benutzer zu gefährden“.
Im August, Ein 9-jähriges Mädchen und ihr Vormund verklagten AppleWir werfen dem Unternehmen vor, CSAM in iCloud nicht zu berücksichtigen.