Nacktbildscanner in iMessage
Nacktbildscanner in iMessage
Bildquelle: JESHOOTS-com, thx!, Lizenz

Nacktbildscanner von Apple kommt nach Deutschland

Nachdem er sich in anderen Ländern bereits etabliert hat, kündigt sich der Nacktbildscanner von Apple nun auch für Deutschland an.

In der neusten Beta von iOS 16 aktiviert Apple erstmals den umstrittenen Nacktbildscanner für iMessage in Deutschland. Er soll Kinder daran hindern, Nacktbilder zu senden oder zu empfangen.

In anderen Staaten schon längst aktiv

Nach den USA, Großbritannien, Kanada, Australien und Neuseeland, will Apple seinen Nacktbildscanner nun offenbar auch für Deutschland und Frankreich freigeben. Die Aktivierung der Funktion in der aktuellen Beta von iOS 16, ist zwar noch keine Garantie dafür, dass sie es auch in die finale Version schafft. Doch die “Chancen” stehen gut, dass Apple den Nacktbildscanner im September mit der neuen iOS Version offiziell auf allen Geräten ausrollt.

Wer sich nun Sorgen macht, dass sein iPhone seine Fotos in Zukunft automatisch scannt, der darf an dieser Stelle beruhigt sein. Zumindest, wenn er Apple sein Vertrauen schenkt. Denn laut eigenen Angaben ist das Feature “off by default“. Der Benutzer muss es also explizit aktivieren.

Nacktbildscanner warnt erstmal nur das Kind

Aktivieren Eltern die Funktion auf dem iPhone ihres Kindes, werden sämtliche ankommenden und versendeten Bilder auf intime Bestandteile hin überprüft. Erkennt der Nacktbildscanner ein Nacktfoto, so stellt er dieses verschleiert dar und zeigt dem Kind eine Warnmeldung an. Außerdem bietet es dem Kind die Option an, eine erwachsene Person zu benachrichtigen. Obwohl Apple zuvor eine automatische Benachrichtigung der Eltern eingeplant hatte, wurde dieses Feature nach heftiger Kritik vorerst wieder gestrichen.

Wann genau der Nacktbildscanner ein Foto als Treffer erkennt, ist bisher noch unklar. Laut Apple reicht es jedoch aus, wenn auf dem Foto Genitalien sichtbar sind, um die entsprechenden Hinweise auszulösen. Die Erkennung der Inhalte erfolgt durch eine KI, die Apple beständig weiterentwickelt und durch Betriebssystem-Updates aktualisiert.

Ursprüngliche Pläne von Apple zielten noch weiter

Ursprüngliches Ziel von Apple war es, umfangreichere Anpassungen am System vorzunehmen, die die Verbreitung von Missbrauchsbildern über die eigenen Dienste eindämmen sollten. Der Nacktbildscanner war nur ein kleiner Teil davon. Denn wie wir bereits im vergangenen Jahr berichteten, ist Apple die größte Plattform für die Verbreitung von Kinderpornografie.

Apple

Apple wollte Bilder, die sexuellen Missbrauch von Kindern darstellen, automatisch erkennen und melden, sobald sie in die iCloud hochgeladen werden. Dafür sollte ein automatischer Abgleich sämtlicher Fotos auf dem iPhone mit einer Datenbank bekannter Missbrauchsbilder stattfinden.

Doch Datenschützer und Sicherheitsexperten sorgten 2021 für so viel Gegenwind, dass Apple sich entschied, die Pläne dafür vorerst auf Eis zu legen. Dennoch ist der Nacktbildscanner ein Schritt in dieselbe Richtung, der dazu führen könnte, dass die ursprünglichen Pläne früher oder später doch noch umgesetzt werden.

Tarnkappe.info

Kategorie: Datenschutz, Softwareentwicklung
Marc Stöckel hat nach seiner Ausbildung zum IT-Systemelektroniker und einem Studium im Bereich der technischen Informatik rund 5 Jahre als Softwareentwickler gearbeitet. Seit 2021 folgt er seiner persönlichen Leidenschaft als Diät-Coach. Um seine technische Expertise weiterhin zu nutzen und auszubauen, schreibt er seit 2022 nebenbei Artikel zu den Themenbereichen Software, IT-Sicherheit, Datenschutz, Cyberkriminalität und Kryptowährungen.