Datenschutzrichtlinie überarbeitet
Apple prüft iCloud-Fotos auf Kindesmissbrauch
Die Änderungen in Apples Datenschutzrichtlinie sind unscheinbar und mindestens schon seit dem 9. Mai vorhanden, die überarbeitete Passage im Abschnitt „Wie wir personenbezogene Daten nutzen“ ist jedoch begrüßenswert.
Wie dem Blogger Andrew Orr zuerst aufgefallen ist, weist Apple hier nun explizit darauf hin, dass hochgeladene Fotos auf Inhalte geprüft werden, die im Zusammenhang mit der sexuellen Ausbeutung von Kindern stehen:
[…] Wir können Ihre personenbezogenen Daten auch für Zwecke der Account- und Netzwerksicherheit verwenden, in dem wir, zum Wohle all unserer Nutzer, unsere Dienstleistungen durch die Vorabprüfung und das Vorabscannen von hochgeladenen Inhalten auf potentiell illegales Material, wie etwa vor Inhalten im Zusammenhang mit der sexuellen Ausbeutung von Kindern, schützen. […]
Wahrscheinlich ist, dass Apple die iCloud-Fotos seiner Anwender durch eine PhotoDNA-ähnliches Prüfverfahren schiebt, um anhand eines robusten Fingerabdrucks auszuschließen, dass sich bereits bekannte kinderpornographische Inhalte über die eigene Infrastruktur weiterverbreiten.
In der letzten Fassung der Datenschutzrichtlinie vom 4. April 2019 fehlten entsprechende Hinweise noch komplett.