Apple nimmt tatsächlich Abstand von seinen Plänen, den umstrittenen Kinderporno-Scanner auf iPhones, iPads und in ihrer iCloud einzuführen.
Apples Ankündigung, auf den umstrittenen Scanner für Darstellungen von Kindesmissbrauch (im Folgenden als CSAM bezeichnet; von Child Sexual Abuse Material) zu verzichten, kam zeitgleich mit der Ankündigung, weitere Sicherheitstools einzubauen.
So soll eine erweiterte Ende-zu-Ende-Verschlüsselung für iCloud eingeführt werden, welche Fotos, Chatverläufe, Notizen und Backups einschließt. Auf diese Weise sollen laut Apple bestimmte Daten besser vor Regierungen, Hackern und dergleichen geschützt werden.
Die Kehrtwende im Fall des Kinderporno-Scanners folgte auf heftige Kritik von Datenschützern, welche die möglichen Auswirkungen auf die Privatsphäre der Nutzer bemängelten.
Apple-Mitarbeiter: „Wir sind die beliebteste Plattform für die Verbreitung von Kinderpornografie“
Ursprünglich kündigte Apple die umstrittene Funktion 2021 an, um die Verbreitung von CSAM über Apples Dienste einzudämmen. Ein geleaktes iMessage-Gespräch zwischen zwei ranghohen Mitarbeitern legte damals nahe, dass die Firma ein sehr großes Problem mit Massen von CSAM hat.
Einer der Mitarbeiter sagte: „Wir sind die beliebteste Plattform für die Verbreitung von Kinderpornografie“ Das konnte Apples Vorhaben zur Einführung eines Kinderporno-Scanners zumindest erklären.
Apple erklärte in einem öffentlichen Statement am Mittwoch, dass man beschlossen habe, „unser zuvor vorgeschlagenes CSAM-Erkennungstool für iCloud-Fotos nicht weiterzuverfolgen.“
In einem weiteren Statement, das WIRED vorliegt, heißt es:
Wir werden weiterhin mit Regierungen, Kinderschützern und anderen Unternehmen zusammenarbeiten, um junge Menschen zu schützen, ihr Recht auf Privatsphäre zu wahren und das Internet zu einem sichereren Ort für Kinder und für uns alle zu machen.
Communication Safety statt NeuralHash-Scanner
Statt dem NeuralHash genannten Kinderporno-Scanner fokussiert Apple seine Bemühungen lieber auf den Ausbau der Funktion „Communication Safety“. Diese wurde erstmals im Dezember 2021 veröffentlicht.
Das Tool entstand aus dem Feedback von Experten und ist ein Opt-in-Feature zur elterlichen Kontrolle. Es warnt Minderjährige und deren Eltern, wenn es sexuell explizite Inhalte in iMessage erkennt, und macht sie unkenntlich. Dies bezieht sich sowohl auf eingehende als auch auf ausgehende Bildanhänge.
Für den ursprünglich geplanten Kinderporno-Scanner erntete der Konzern aus Cupertino damals haufenweise Kritik. Unter anderem befürchteten Gegner der höchst invasiven Maßnahme, dass Regierungen den iPhone-Hersteller zwingen könnten, weitere Inhalte in den hashbasierten Scanner einzubauen, um auch andere Inhalte außer CSAM zu zensieren.
Jedoch lehnte Apple dies kategorisch ab:
Wir waren schon früher mit Forderungen konfrontiert, staatlich verordnete Änderungen zu entwickeln und zu implementieren, die die Privatsphäre der Nutzer beeinträchtigen, und haben diese Forderungen standhaft abgelehnt. Wir werden sie auch in Zukunft ablehnen.