Lesetipps: Piratengeflüster, ein sehr fauliger Apfel und peinliche Politik

Kommentare zu folgendem Beitrag: Lesetipps: Piratengeflüster, ein sehr fauliger Apfel und peinliche Politik

Nur zur Info:

https://tarnkappe.info/forum/t/computer-hardware-riese-gigabyte-von-ransomexx-ransomware-betroffen/8759

Das hatte ich komplett übersehen. Entschuldige bitte !! Ich habe die Lesetipps natürlich gleich entsprechend ergänzt.

Wäre nicht nötig gewesen! :joy:

Okay, auf die Gefahr hin, dass mich jetzt einige als Fanboy oder sonst was betiteln … mir herzlich egal …

Mal abgesehen von den ganzen „was könnte Apple wenn es wollte“ auf die reinen Fakten konzentriert:

Ausgangslage: Wir alle wissen, dass Cloudanbieter in den USA ihren Teil zum Kampf gegen KiPo beitragen müssen. Bedeutet, unverschlüsseltes wird in amerikanischen Cloudspeichern auf verschieden „Muster“ geprüft. Macht Microsoft, macht Google, macht Facebook, macht auch Apple. Soweit nichts neues.

Das kann man gut und kann man schlecht finden. Ich verstehe beide Seiten.

Hätte ich die Wahl, würde ich mich gegen ein generelles scannen entscheiden. Wenn man deren Cloud verwenden möchte hat man aber keine Wahl.

Soweit also alles beim alten (schlechten).

Meiner Meinung nach geht Apple nun aber einen Schritt in die (für mich) richtige Richtung:

Apple möchte nicht mehr unverschlüsselte Bilder in seiner Cloud durchsuchen müssen. Die iPhones sind inzwischen so leistungsfähig, dass ein Bild lokal auf dem Gerät gescannt werden kann. Danach wird dem Bild ein „Etikett“ angehängt mit dem Scanergebnis (auffällig/nicht auffällig). So muss Apple einfach zukünfitg keine Bilder mehr in seiner Cloud scannen. Der Schritt ist also nicht dumm.

Fakt 1: Nur bevor ein Bild in die iCloud geladen wird, wird die lokale Rechenleistung des iPhones verwendet, um den Inhalt des Fotos zu bestimmen.
LOKALE Bilder sind NICHT betroffen. Dieser kleine aber feine Unterschied sorgt natürlich für Verwirrung.
Gefällt mir das nicht, kann ich jederzeit die iCloud abschalten.

Fakt 2:
Derzeit sind sowieso nur Konten aus den USA betroffen (ja, mal sehen wann wir auch dran sind …) aber mit iOS 15 wird es eben erstmal nur die USA betreffen.

Quelle: https://www.apple.com/child-safety/pdf/Expanded_Protections_for_Children_Frequently_Asked_Questions.pdf

Mein Fazit: Wäre ich ein iCloud Kunde in den USA wäre mir das neue Verfahren lieber. Lieber ein lokaler Scan der das Foto einstuft und dann hochlädt wie bisher eine art „Masteraccount“ der Zugriff auf ALLE iCloud Fotos ALLER Konten hat und diese durchforstet (hohes Missbrauchsrisiko).

Trotzdem bleibt das ganze mehr als fragwürdig:

Apple today held a questions-and-answers session with reporters regarding its new child safety features, and during the briefing, Apple confirmed that it would be open to expanding the features to third-party apps in the future.

Apple Open to Expanding New Child Safety Features to Third-Party Apps

„Apple sagte, dass es heute zwar nichts anzukündigen habe, aber eine Ausweitung der Kindersicherheitsfunktionen auf Dritte, damit die Nutzer noch umfassender geschützt sind, ein wünschenswertes Ziel sei. Apple nannte keine konkreten Beispiele, aber eine Möglichkeit wäre, dass die Funktion ‚Communication Safety‘ für Apps wie Snapchat, Instagram oder WhatsApp verfügbar gemacht wird …“

Ich möchte an dieser Stelle mal gerne auf den Kommentar bei „heise.de“ von heute Morgen hinweisen:

Kommentar: Apple setzt die falschen Prioritäten

Ist meine Meinung nach nur der nächste logische Schritt.

Wenn Penis Bilder in iMessage erkannt werden können (diese Funktion ist für Geräte in Kinderhänden gedacht, welche eine verwaltete Familien-Apple ID nutzen), dann ist es vorstellbar, dass diese KI (übrigens ebenfalls lokale Erkennung) auch in Form einer offenen API andere Messaging Apps verwenden können.

Ist nichts anderes als ein besserer Webfilter, der bisher auf Kinder iPhones bestimmte Schlagworte blockiert hat.