Apple: Über 90 NGOs wollen den Stopp des Apple-Kinderporno-Scanners

Eine internationale Koalition bestehend aus mehr als 90 NGOs verschickte heute einen offenen Brief an Tim Cook, den CEO der Apple Inc.

Apple, Zwei Gray Bullet Überwachungskameras

Eine internationale Koalition von mehr als 90 NGOs wandte sich heute in einem offenen Brief an Apple. Diese sollen ihre kürzlich angekündigten Pläne zum Einbau von Überwachungsfunktionen in ihre Produkte wieder fallen lassen. Die Suchfunktion soll auf iMessage, iCloud und Geräten automatisiert nach kinderpornografischen Inhalten scannen. Bei Funden sperrt sie Benutzer und informiert auch die zuständigen Behörden.

Am 05.08.2021 kündigte Apple an, dass sie einen Algorithmus zur automatisierten Suche nach kinderpornografischen Inhalten integrieren wollen. Dieser soll in iMessage und den auf Apple-Produkten gespeicherten Fotos suchen. In dem nun an Apple-CEO Tim Cook gerichteten offenen Brief beschreiben die NGOs die Gefahren einer solchen Funktion. Der geplante Filter soll die Verbreitung von kinderpornografischem Material eindämmen. Allerdings könnten neue Gefahren für Meinungsfreiheit und Privatsphäre entstehen, insbesondere:

  • Die Such- und Warnfunktion in iMessage könnte zu Meldungen führen, die Sicherheit und Wohlbefinden von einigen Jugendlichen gefährden könnten. Insbesondere als LGBTQ+ identifizierende mit strengen oder intoleranten Eltern könnten betroffen sein.
  • Auch fremde Regierungen könnten Einfluss auf die Datenbank nehmen, um unliebsame Inhalte entfernen zu lassen.

Weitreichende Kritik und Erklärungsversuche von Apple

Die schiere Anzahl der unterschreibenden NGOs und Menschenrechtsorganisationen demonstriert, wie wichtig das Thema ist. Apples Pläne würden Menschenrechte auf dem gesamten Globus gefährden. Einige Organisationen sind spezifisch besorgt über Nationen mit anderen Rechtssystemen und solche, die bereits erhitzte Diskussionen über Verschlüsselung und Privatsphäre führen.

Sharon Bradford Franklin, Co-Direktorin des „Security & Surveillance Project“ des CDT (Center for Democracy & Technology) sagte hierzu: „Es enttäuscht so sehr, dass Apple diesen Weg geht, waren sie doch ein treuer Verbündeter bei der Verteidigung von Verschlüsselung in der Vergangenheit“.

Ein Sprecher von Apple betonte, dass die Sorgen über Privatsphäre und Sicherheit bereits angegangen wurden. In einem Dokument, das am vergangenen Freitag veröffentlicht wurde, erklärte Apple die Architektur für sicher. Des Weiteren veröffentlichte Apple eine Reihe an Erklärungen und Dokumenten, die darlegen sollen, dass die Chance gering sei, den Algorithmus auszutricksen. Auch würden sie es strikt ablehnen, die Datenbank um andere Dinge zu erweitern, die über kinderpornografisches Material hinausginge. Jedoch sicherte Apple nicht zu, lieber einen Markt zu verlassen, anstatt einem möglichen Gerichtsurteil zu folgen.

Epic Games

Lesen Sie auch

Sicherheitsbedenken und mögliche Begehrlichkeiten von Regierungen

Die Unterzeichner des offenen Briefs machten ebenfalls darauf aufmerksam, dass die Suchfunktion die Ende-zu-Ende-Verschlüsselung von iMessage unterminieren würde. Diese wurde von Apple in anderen Zusammenhängen und Fällen zuverlässig verteidigt.

Sobald die Backdoor eingebaut ist, könnten Regierungen Apple davon überzeugen, die geplante Benachrichtigung bei Funden auch auf andere Accounts auszuweiten und nach Bildern zu suchen, die aus anderen Gründen als der sexuellen Explizität als problematisch empfunden werden“, liest man weiter im Brief. Die Benachrichtigung springt an, wenn der Algorithmus ein sexuell explizites Bild findet. Daraufhin warnt man den Benutzer, dass das Bild sensible Dinge beinhaltet. Ebenfalls benachrichtigt sie den Admin eines Familienaccounts, wenn ein User der jünger als 13 Jahre alt ist, ein solches Bild empfangen oder senden möchte.

Fragwürdige technische Umsetzbarkeit und Nutzen

Algorithmen, die pornografische Inhalte filtern sollen, sind als notorisch unzuverlässig bekannt. So filtern sie nicht nur falsch-positive Ergebnisse wie Kunst, gesundheitsrelevante Informationen, schulische Unterlagen und anderes. Auch filtern sie nicht zuverlässig neue Inhalte, sind also ausschließlich für die Filterung bekannter Materialien gedacht. So werden einerseits legale Informationen zurückgehalten (deren Recht zu Versand und Empfang durch die UN-Kinderrechtskonvention geschützt ist). Und andererseits neu oder leicht veränderte Bilder von Kindesmissbrauch nicht erkannt. Ein weiterer Kritikpunkt ist die Annahme von Apple, dass ein „Erwachsener“- oder „Kind“-Account auch tatsächlich von diesen benutzt wird und beide ein gesundes Verhältnis zueinander haben.

Tarnkappe.info