Start IT/Tech iOS 18.2 verfügt über eine Kindersicherungsfunktion, die nackte Inhalte unkenntlich machen und...

iOS 18.2 verfügt über eine Kindersicherungsfunktion, die nackte Inhalte unkenntlich machen und an Apple melden kann

12
0
iOS 18.2 verfügt über eine Kindersicherungsfunktion, die nackte Inhalte unkenntlich machen und an Apple melden kann

In iOS 18.2Apple ist hinzufügen eine neue Funktion, die einen Teil der Absicht hinter ihrem Stopp wiederbelebt CSAM-Scanpläne – dieses Mal, ohne die Ende-zu-Ende-Verschlüsselung zu unterbrechen oder staatliche Hintertüren bereitzustellen. Die Erweiterung der Kommunikationssicherheitsfunktion des Unternehmens, die zuerst in Australien eingeführt wird, nutzt maschinelles Lernen auf dem Gerät, um nackte Inhalte zu erkennen und unkenntlich zu machen, fügt Warnungen hinzu und erfordert eine Bestätigung, bevor Benutzer fortfahren können. Wenn das Kind unter 13 Jahre alt ist, kann es nicht fortfahren, ohne den Bildschirmzeit-Passcode des Geräts einzugeben.

Wenn das integrierte maschinelle Lernen des Geräts Nacktinhalte erkennt, verwischt die Funktion das Foto oder Video automatisch, zeigt eine Warnung an, dass der Inhalt möglicherweise vertraulich ist, und bietet Möglichkeiten, Hilfe zu erhalten. Zu den Optionen gehören das Verlassen der Konversation oder des Gruppenthreads, das Blockieren der Person und der Zugriff auf Online-Sicherheitsressourcen.

Die Funktion zeigt auch eine Nachricht an, die dem Kind versichert, dass es in Ordnung ist, den Inhalt nicht anzusehen oder den Chat zu verlassen. Es besteht auch die Möglichkeit, einem Elternteil oder Erziehungsberechtigten eine Nachricht zu senden. Wenn das Kind 13 Jahre oder älter ist, kann es nach Erhalt dieser Warnungen immer noch bestätigen, dass es fortfahren möchte – mit einer Wiederholung der Erinnerung, dass es in Ordnung ist, sich abzumelden, und dass weitere Hilfe verfügbar ist. Entsprechend Der WächterEs enthält auch eine Option zum Melden der Bilder und Videos an Apple.

Zwei Bildschirme zeigen eine neue iPhone-Kindersicherungsfunktion.

Apfel

Die Funktion analysiert Fotos und Videos auf iPhone und iPad in Nachrichten, AirDrop, Kontaktpostern (in der Telefon- oder Kontakte-App) und FaceTime-Videonachrichten. Darüber hinaus werden „einige Apps von Drittanbietern“ gescannt, wenn das Kind ein Foto oder Video auswählt, um es mit ihm zu teilen.

Die unterstützten Apps variieren auf anderen Geräten geringfügig. Auf dem Mac werden Nachrichten und einige Apps von Drittanbietern gescannt, wenn Benutzer Inhalte auswählen, die über sie geteilt werden sollen. Auf der Apple Watch umfasst es Nachrichten, Kontakt Poster und FaceTime-Videonachrichten. Endlich weiter Vision ProDie Funktion scannt Nachrichten, AirDrop und einige Apps von Drittanbietern (unter den gleichen oben genannten Bedingungen).

Die Funktion erfordert iOS 18, iPadOS 18, macOS Sequoia oder visionOS 2.

Der Wächter berichtet, dass Apple plant, es nach dem Australien-Test weltweit auszuweiten. Das Unternehmen hat sich wahrscheinlich aus einem bestimmten Grund für das Land Down Under entschieden: Das Land ist bereit, neue Märkte zu erschließen Vorschriften die von Big Tech verlangen, Kindesmissbrauch und Terrorinhalte zu überwachen. Als Teil der neuen Regeln stimmte Australien zu, die Klausel hinzuzufügen, dass dies nur „soweit technisch machbar“ vorgeschrieben sei, und verzichtete auf die Anforderung, die Ende-zu-Ende-Verschlüsselung zu unterbrechen und die Sicherheit zu gefährden. Unternehmen müssen die Vorschriften bis zum Jahresende einhalten.

Der Datenschutz und die Sicherheit der Benutzer standen im Mittelpunkt der Kontroverse über Apples berüchtigten Versuch, CSAM zu überwachen. Im Jahr 2021 bereitete es die Einführung eines Systems vor, das dies tun würde Suchen Sie nach Bildern von sexuellem Missbrauch im Internetdie dann an menschliche Prüfer gesendet würden. (Es war eine Art Schock, nachdem Apple dem FBI in dieser Angelegenheit die Stirn geboten hat versucht, das iPhone eines Terroristen zu entsperren.) Datenschutz- und Sicherheitsexperten argumentierten, dass die Funktion autoritären Regimen eine Hintertür öffnen würde, um ihre Bürger in Situationen ohne ausbeuterisches Material auszuspionieren. Im darauffolgenden Jahr Apple habe die Funktion aufgegebenDies führt (indirekt) zu der heute angekündigten ausgewogeneren Kindersicherheitsfunktion.

Sobald es weltweit eingeführt wird, können Sie die Funktion unten aktivieren Einstellungen > Bildschirmzeit > Kommunikationssicherheit, und schalten Sie die Option ein. Dieser Abschnitt ist seit iOS 17 standardmäßig aktiviert.

Quelle link