Trotz laufender iCloud-Prüfung seit 2020
Missbrauchs-Fotos: Apple hat 2020 nur 265 Bilder gemeldet
Noch immer ist das Netz auf der Suche nach Gründen, die Apple dazu veranlasst haben könnten, sich dafür zu entscheiden auf den iPhone-Modellen von Millionen Kunden die Software-Voraussetzungen zu schaffen, um lokale Fotos nach möglichen Missbrauchsbildern zu durchsuchen.
2020-Reports by Electronic Service Providers | Quelle: NCMEC
Zwar hat Apple die am vergangenen Donnerstag angekündigte Neuerung von iOS 15 mit zahlreichen Einschränkungen versehen (gescannt werden nur Fotos die in die iCloud geladen werden, gescannt wird vorerst nur in den USA, Treffer sollen von Apple gesichtet werden, weiteren Ländern wird erst nach „rechtlicher Prüfung“ Zugriff auf das System gewährt) zeigt sich vom webweiten Aufschrei ansonsten aber weitgehend unbeeindruckt.
Trotz laufender iCloud-Prüfung seit 2020
Wirft man einen Blick auf die offiziellen Statistiken, die das National Center for Missing and Exploited Children (NCMEC) jährlich veröffentlicht, werden die Fragezeichen nur noch größer. Im Report über die Anzahl der von Service-Providern gemeldeten Missbrauchs-Fotos 2020 taucht Apple lediglich mit 265 gemeldeten Verdachtsfällen auf.
Zum Vergleich: Dropbox hat mit 20,928 Bildern knapp das Hundertfache gemeldet, Facebook hat über 20 Millionen Fotos an das NCMEC übergeben.
265 Bilder, obwohl Apple alle in iCloud gesicherten Fotos bereits seit 2020 auf den iCloud-Servern nach Bildern durchsucht, auf denen die sexuelle Ausbeutung von Kindern zu sehen ist. Um diese fortan schon vor dem Upload in die iCloud zu finden, sollen nun entsprechende Software-Vorbereitungen auf über einer Milliarde aktiv genutzter iOS-Geräte getroffen werden.
Experten hinterfragen astronomische Fehlerrate
Wo wir gerade bei der Auswertung von Statistiken sind: Laut Apple soll die Falsch-Positiv-Rate bei 1 zu 1 Billion liegen. Eine Behauptung, die inzwischen von Experten hinterfragt wird. Dr. Neal Krawetz von FotoForensics etwa schreibt „I’m calling bullshit on this„.
Beispiel Facebook: Bei über 20 Millionen gemeldeten Missbrauchs-Fotos geht Krawetz davon aus, dass Nutzer im Meldezeitraum etwa 36 Milliarden Bilder auf Facebook hochgeladen haben. Entsprechend würde es 30 Jahre dauern, ehe Apple bei gleichem Bildaufkommen den ersten Falsch-Positiv-Treffer hätte.
Krawetz bezweifelt, dass Apple überhaupt eine Billion valider Testfotos besitzt. Eine sehr lesenswerte Analyse.
According to all of the reports I’ve seen, Facebook has more accessible photos than Apple. Remember: Apple says that they do not have access to users‘ photos on iCloud, so I do not believe that they have access to 1 trillion pictures for testing. So where else could they get 1 trillion pictures?
Zum Nachlesen
- Kinderporno-Scan: Apples Antworten lassen viele Fragen offen
- Kinderporno-Scan: Apple hofft auf ein Missverständnis
- Kinderporno-Scan: Apple erntet Kritik von allen Seiten
- Dickpic per iMessage: iOS 15 warnt vor Penis-Bildern
- Missbrauchsfotos: Das iPhone prüft mit iOS 15 auch lokal
- Kindesmissbrauch: Apple scannt iCloud-Fotos auf bekannte Bilder