ifun.de — Apple News seit 2001. 37 887 Artikel

Weiter Streit um potenzielle Hintertür

Apples Missbrauchs-Scanner: Sicherheitsforscher erzeugen Hash-Dubletten

Artikel auf Mastodon teilen.
100 Kommentare 100

Die Diskussion um die von Apple angekündigten CSAM-Missbrauchs-Scans läuft weiterhin kontrovers. Während Sicherheitsforscher darin eine grundsätzliche Beschneidung der Privatsphäre sehen, wirbt Apple weiterhin die Sicherheit seines Systems. Dabei sollte mittlerweile auch bei Apple angekommen sein, dass es längst nicht mehr um die damit verbundenen Möglichkeiten oder Schwachstellen geht, sondern hier insbesondere auch generell die Tatsache kritisiert wird, dass Apple seine Betriebssysteme um eine zuvor nicht vorhandene, potenzielle Hintertür erweitern will.

Apple beteuert damit verbunden stets erneut, dass sein System so konzipiert sei, dass keine Organisation oder Regierung auf die zu überprüfenden Inhalte Einfluss nehmen kann. Umgekehrt haben wir in der Vergangenheit allerdings zu oft gesehen, wie schnell sich Apple mit lokalen Behörden einig wird, wenn es um die Präsenz auf den jeweiligen Märkten geht. Insbesondere Apples Kooperation mit der chinesischen Regierung lässt begründet daran zweifeln, dass sich der Konzern dort per Gesetz geforderten Maßnahmen auch wirklich verweigert. Denn auch wenn man eine Einflussnahme auf die im Rahmen der SCAM-Scans zugrundeliegenden Daten als nicht möglich betrachtet, zeigt Apple mit der Einführung dessen, dass entsprechende Überwachungsmaßnahmen prinzipiell durchführbar sind.

Kritiker sehen hohes Missbrauchspotenzial

Die allgemeine Diskussion begleitend, liefern sich Sicherheitsforscher gerade einen Wettstreit im Generieren von Fake-Bildern, die aufgrund ihrer mit Bildern in der Apple-Datenbank identischen Hash-Werte von Apples Kontrollsystem fälschlicherweise als Kinderpornografie erkannt werden sollen. Ein Beispiel dafür, dass zwei Bilder mit identischen Hash-Werten nicht die geringste Ähnlichkeit aufweisen müssen, wird hier auf GitHub demonstriert.

Bilder

Unterschiedliche Bilder mit identischem Fingerabdruck

Bereits seit iOS 14.3 integriert

Als Basis für die neuen Experimente dient eine Datenbank, die von Apple offenbar bereits in iOS 14.3 integriert, aber nicht genutzt wurde. Apple hat sich in Folge dieser Entdeckung erneut zu Wort gemeldet und betont gegenüber dem Magazin Motherboard, dass es sich hierbei nicht um die finale Version der Implementierung handle und die von Nutzern aufgefundenen Hash-Informationen bewusst nicht verschlüsselt warten. Zudem sei die manuelle Prüfung durch Apple-Mitarbeiter vor einer Meldung eine weitere und nicht beeinflussbare Sicherheitsstufe.

Kritiker sehen die neuen Entdeckungen unabhängig davon, ob Apple die am Ende tatsächlich für den Bilderabgleich genutzten Hash-Werte noch ändert oder nicht als Beweis dafür, dass eine Einflussnahme auf das System grundsätzlich möglich ist.

19. Aug 2021 um 12:55 Uhr von Chris Fehler gefunden?


    Zum Absenden des Formulars muss Google reCAPTCHA geladen werden.
    Google reCAPTCHA Datenschutzerklärung

    Google reCAPTCHA laden

    100 Kommentare bisher. Dieser Unterhaltung fehlt Deine Stimme.
  • Würde man sich den strafbar machen wenn man „ausversehen“ das handy voll von solchen Hash-doppelgängern hat?

      • Was ist hieran nicht möglich? Die Hashwerte gibt es ja schon in einer unverschlüsselten Datenbank. Mit diesem Hashwert eine Dublette zu erzeugen, scheint technisch möglich.
        Man könnte also durchaus den Gedanken fassen, Apples manuellen Review mit falschen Bildern zu boykottieren.
        Man müsste nur noch die Dubletten authentischer aussehen lassen, damit kein Neuronales Netzwerk diese automatisch verwerfen kann.
        Vielleicht ein GAN netzwerk :)

      • Weil es schlicht in der Praxis nicht vorkommt. Bisher konnte soas nur „synthetisch“ hergestellt werden, wie in dem Beispiel aus dem Text.
        Die haben aber eine KiPo genommen. Würde man KiPo nehmen, hätte man die Originale dafür. Die braucht man um die Dubletten zu erstellen. Und dann ist man im Besitz von KiPo und hat sich somit strafbar gemacht.
        Aber das ist völlig egal: Denn es ist kein Praxisfall. In der Praxis gibt es bisher keine Dubletten bei den gängigen Hashberechnungen.

        Und zum Thema, das Gerät mit Dubletten vollzuschaufeln: Was soll Dir das bringen? Im Zweifel werden Dir sämtliche elektronischen Geräte bei einer Hausdurchsuchung abgenommen. Super, wie man es Apple dann damit gezeigt hat….

      • rover, du liegst da aber ziemlich überall falsch, mit deinen Behauptungen. Das möchte ich gern berichtigen.

        Doch, es kann auch in der Praxis vorkommen, dass identische Hash-Werte berechnet werden. Nur merken die meisten nichts davon, weil es keinen Einfluss hat.

        Man muss kein KiPo Bild verwenden, um eigene identische Hash-Werte zu erzeugen. Man muss nur die Werte kennen und Dateien bzw. Bilder erzeugen, die berechnet einen gleichen Hash-Wert ergeben. Das haben sie so gemacht und steht auch im Text. Also alles im legalen Bereich.

        Und es ist nicht völlig egal, wie du schreibst, den dadurch, dass sie diese Werte erzeugen konnten, ist es ein Praxisfall. Jeder, du, er, sie und ich könnten solche Dateien erzeugen und anderen unterjubeln. Besonders bei schnell geteilten Humorbilder mit grosser Reichweite, werden viele Unschuldige verdächtig.

        Und gerade dein letzter Absatz zeigt, dass du das Thema nicht wirklich verstanden hast.

      • ok und wer stellt nun ein Paket mit den künstlich hergestellten Bildern online. Mir Banane dann werden wir es eben Fluten. Was wenn ich ehrlich bin mir gegen den Strich geht da ich es schon wichtig finde Kinder zu schützen.
        Aber wenn sie es nicht anders wollen dann eben Feuer mit Feuer bekämpfen

    • Warum sollte man sich damit strafbar machen? Ich würde sogar gezielt danach suchen und auf meinem Handy speichern, am besten mit einfachen Textbildern wie „F*ck Apple“ oder sowas ;-).

    • Ne, außer Apple ändert die AGBs. Die sagen dann darfst du nicht. Und sperren deine Apple ID.
      Wäre aber immer noch keine Straftat.

    • Denkst Du an § 145d StGB (Vortäuschen einer Straftat)? Das scheitert schon an Absatz 1 „… einer Behörde oder einer zur Entgegennahme von Anzeigen zuständigen Stelle …“! Apple ist keine solche Stelle.

      • Genau das war mein Gedankengang

      • Ich denke da wird es nen bisschen schwierig, wie würdest du denn den Vorsatz nachweisen bei einem Bild das vllt nur nen Sonnenuntergang oder etc darstellt und rein zufällig den selben hash hat :)

      • Das ist technisch gar nicht nicht möglich. Ein 6er im Lotto wird wahrscheinlicher sein als „zufällig“ den gleichen Hash. Der Neurohash von Microsoft wird ja nicht seit gestern benutzt.

      • ach ihr redet von der künstlichen Erzeugung. Ob das möglich…

      • Naja wenn ich zich so künstliche fotos habe die keinen anderen erkennbaren sinn haben…

      • Trotzdem täuscht Du damit ja im Grunde Apple und nicht die im StGB benannten Stellen, also mangelt es schon daran. Selbst wenn man den Vorsatz beweisen könnte, weil Du meinethalben den Ordner, in welchem sich die Bilder befinden, „Bilder um Apple zu vera*schen“ nennen würdest. Es wird kein Vergehen im Sinne des StGB.

    • Kurz: Nein.

      Länger: Aber du könntest vielleicht einigen Ärger bekommen.

      Ganz lang: — hier wäre R4inb0wD4sh Geschichte und Erfahrung, wenn er dann wieder draussen ist :)

      • Kannst Du mir erklären welchen Ärger, außer das vllt. Papa schimpft und Mama das iPhone einkassiert, ihn erwarten würde? Ich frage das aus ehrlichen Interesse. Weil mir fällt beim besten Willen nichts ein.

      • Mama und Papa dürften den kleinsten Ärger machen.
        Aber z.B. wenn Apple vorsorglich deine ID sperrt, Ein Auto mit Blaulicht vor deinem Haus steht, oder du auf der Arbeit mitgenommen wirst. Oder dass du eine Anzeige wofürauchimmer erhältst.

        Aber am besten warten wir auf die R4inb0wD4sh Geschichte ;)

    • Wozu sollte man das machen?
      Ich könnte mir vorstellen, das bei positiven Hash Treffern erst eine weitere Softwareinstanz das Bild auf optische Ähnlichkeit prüft. Warum sollte sich da ein teuer zu bezahlender Mensch dran setzen? Dass kann Software doch viel effektiver!

  • Es ist immer nur die Rede von iOS, aber wäre es nicht dann auch irgendwann unter macOS so?

  • DAS ist Schwachsinn. Bei der Generierung von SHA-1 oder MD5 Hashes ist es nur unter konstruierten Gegebenheiten diese Dubletten zu bekommen.
    Das Thema ist ja alles andere als neu. Hashes sind sogar Gerichtsfest.
    In der „realen“ Welt gibt es keine Dubletten bzw. konnten bisher keine gefunden werden.
    Das ist alles nachzulesen. Darüber gibt es mehr als genügend technische Abhandlungen.

    • Erstens sind konstruierte Dubletten von sich aus bereits eine Gefahr. Jeder der schonmal erlebt hat, wie gut es durch das Treppenhaus eines Mehrparteienhauses schallt, wenn ein Polizist bei einem Nachbarn an der Wohnungstüre den Grund für eine Wohnungsdurchsuchung nennt, der fürchtet eine Dublette sehr. Den Nachbarn ist egal, ob anschließend die Polizei bemerkt, dass es um Dubletten ging. Alles was einen vor diesem Szenario schützt, ist ein Apple Mitarbeiter und eventuell ein Mitarbeiter der gemeinnützigen Organisationen. In ersteres habe ich kein Vertrauen mehr, seit man mitkriegt was alles in den AppStore gelangt, zweitere kann ich nicht einschätzen.

      Und nun zu dem wichtigeren zweiten Punkt. Du vergleichst Äpfel mit Birnen. Hier wird kein SHA-1 oder MD5 oder ein sonstiges „klassisches“ Hashverfahren verwendet, sondern NeuralHash. Dieses Verfahren ist darauf ausgelegt, leicht modifizierte Bilder auch noch zu erkennen, d.h. BIldausschnitte, Farbverfälschungen, Kompression und Vergrößerung/Verkleinerung haben eine geringere Auswirkung auf den Hashwert. All das ginge bei SHA1, MD5 und Co nicht. Ändere bei diesen auch nur die Farbe eines Pixels, du erhältst einen vollkommen anderen Hashwert. Durch diese Flexibilität von NeuralHash steigt aber natürlich auch die Chance für die Existenz von Dubletten.

      • Klar, der Grund für die Wohnungsdurchsuchung ist ein Bild mit schwarzen und grauen Pixeln.
        Für eine Wohnungsdurchsuchung braucht die Polizei bzw. Staatsanwaltschaft die Fotos und Du glaubst, die können das nicht unterscheiden? Man kann sich auch die unsinnigsten Fälle konstruieren!

  • Das Ganze soll ja auch funktionieren wenn iCloud komplett aus ist. Aber die kommen dann die Bilder zur manuellen Überprüfung zu apple? Es werden so also unter Verdacht stehende Bilder ohne meine Zustimmung oder wissen zu Apple geladen.

    • Nein, ein Hashwert der keine Rückschlüsse auf den Bildinhalt zulässt, wird übermittelt.

      • Und wie soll man dann anhand des hash Wertes prüfen ob das jetzt irgendwas anderes ist?

      • Weil der Hashwert eindeutig ist.

      • Ist er nicht. Das ist ja der Witz.

      • Marcus, da gäbe es mehrere Möglichkeiten:

        a) Apple lässt sich regelmässig Daten von deinem Handy übermitteln, wenn du ins Netz verbunden bist. Da könnten kleine Thumbnails der Dateien zur Kontrolle mitgesendet werden.

        b) Apple „erlaubt“ sich, den iCloud Synch zu aktivieren und lädt die betroffenen Bilder hoch und kontrolliert sie dort.

        c) Es stehen plötzlich ein paar Polizisten vor deiner Tür, und du darfst im besten Fall nur dein Handy entsperren und beweisen, dass du unschuldig bist, oder du und deine Geräte etc. werden gleich mal mitgenommen.

        d-…) Es gibt unzählige andere technische Möglichkeiten.

        Traurig ist eigentlich nur, dass sowas überhaupt nötig ist.

    • Funktioniert nur mit iCloud Photos. Da liegen auch die zugreifbar.

    • Es sollen nur Fotos gescannt werden, welche dann in die iCloud Fotomediathek raufgeladen werden. Sonst nichts

      • Nein. Es werden LOKALE Fotos gescannt.

      • Ja, bevor sie hochgeladen werden.

      • Ist wie eine zoll kontrolle, nur dann eben VOR abflug statt nach der landung. Wer nicht fliegt muss nicht durch die zoll kontrolle

      • @waldelf Nur, bevor sie in die iCloud geladen werden. Und auch nur, wenn du in den USA wohnst.

      • Von „Foto Mediathek“ ist keine Rede, sondern von „cloud“. Bilder kommen auch ohne Online-FM in die Apple-Cloud, z.B. in iMessages. Es gibt zahlreiche weitere Wege…

      • Nein, es ist ganz klar von Apple kommuniziert worden, dass nur die Bilder in der Fotomediathek lokal gescannt werden, wenn man die iCloudmediathek aktiviert, sonst nicht.

  • Ne…aber wenn der Apple Mitarbeiter es nicht richtig prüft klingelt
    Morgen die Polizei bei dir…

    • Ist das wirklich so? Geht das in Deutschland tatsächlich so schnell?

      • Ja – z.B. wenn ein Handy als gestohlen gemeldet wird. Kurz beim Provider nachgefragt welche Person aktuell zu der IMEI gehört und dann an die örtliche Kripo weitergeleitet- die rufen dann an.

      • Nein, dem ist nicht so.

      • @KaroX
        Also Apple gibt es erst an die Behörden wenn 30 Bilder mit KiPo bei dir gefunden wurden.
        Es könnte dann von Seiten der Polizei tatsächlich sehr schnell gehen, du sollst ja nichts löschen.
        Was dann lange dauern kann, gerne 2 Jahre in Deutschland, ist die Durchsuchung der beschlagnahmten Hardware. Das heißt, es kann 2 Jahre dauern die du gebrandmarkt bist, bis die Polizei feststellt, „oh moment, das sind ja nur ganz harmlose Bilder“.
        Gerade wenn dann künstlich erzeugte „Fake“-Bilder über WA verbreitet werden, kommen auch die Leute bei Apple oder einer Drittfirma nicht mehr nach und werden auch immer oberflächlicher um das Pensum zu schaffen.

      • Bloodsaw, dass die deutsche Polizei hüpft wenn sie eine Meldung nur bzgl eines hashwertes bekommen, glaubst du doch selber nicht.

    • Die Staatsanwaltschaft muss vorher die Bilder sichten, bevor sie eine Durchsuchung veranlassen. Somit ist deine Sorge unbegründet.

  • Ich bin grundsätzlich nicht begeistert von der Möglichkeit, dass irgend jemand mein Handy durchforstet, aber um dich noch mal zum Thema KiPo zu schwenken: Werden denn nur bekannte Bilder abgeglichen, oder erfolgt auch eine Auswertung anhand von „Motiven“. Ich sage es mal ganz Tacheles: Wenn ich jetzt ein Foto von der rasierten P…. einer Frau auf dem Handy habe, wird das dann als KiPo vermutet/erkannt und dann ausgewertet? Kommt dann der Mitarbeiter ins Spiel, der eine manuelle Sichtung macht? Gefällt mir irgendwie alles nicht …

    • Nein nur gemeldete Fotos die von mindestens 2 „Behörden“(?!) gemeldet wurden sind. Und was ist eine rasierte P… ?

    • Eine generelle Erkennung von Mustern ist aktuell nicht vorgesehen. Nur eine invarianz gegenüber encoding/ reincoding, rotation und auflösung is vorgesehen.
      Aber dafür könnte super der Neuronale prozessor verwendet werden (vorsicht sarkasmus)

      • Das stimmt so nicht ganz!
        Die NeuralEngine kann sehr wohl alle möglichen Nackfotos erkennen, und das wird auch in iMessage verwendet um die Bilder auszublenden. Die funktion wird aber nicht verwendet um KP zu identifizieren.
        Das iPhone scannt grundsätzlich alle Bilder, also wird auch irgendwo gespeichert was ein Nacktbild ist und was nicht. Apple hat grundsätzlich Zugang zu diesen Daten, das ist alles sehr gruselig. Vorallem dann, wenn die Konzerne anfangen psychologische Profile der User zu erstellen (Facebook hat dazu bereits ein funktionierendes System), die dann mit den Gusundheitsdaten verknüpft werden. Und die landen ja inzwischen auch in der Cloud, für Apple lesbar (privKey und MasterKey verfügbar).

    • Nein, es wird nichts gescannt. Es werden Hashwerte erstellt. Diese werden verglichen. Da spielt eine Bilderkennung gar keine Rolle.

      • Das stimmt so nicht!
        Die NeuralEngine kann sehr wohl alle möglichen Nackfotos erkennen, und das wird auch in iMessage verwendet um die Bilder auszublenden. Dem Gerät ist also bekannt was Nacktbilder sind und was nicht. Die Funktion wird aber nicht verwendet um KP zu identifizieren.

        Und bitte nicht vergessen das auch bereits Texteingaben und Spracheingaben gescannt werden! (Suche, Siri)

  • Jetzt wurde eigentlich ganz genau bewiesen, dass der Algorithmus aus so ziemlich jedem Foto ein falsch positiv machen könnte. Na halleluja, die Apple Mitarbeiter die das dann manuell nachgucken werden sich freuen :) bin mal gespannt wann Apple dann wieder in welcher Höhe Entschädigungen zahlen muss, weil wieder private Bilder im Netz landen.

    • Diesen Fall hat jeder Cloud Anbieter. Oder denkst du das Apple sich nur eine Überprüfung leisten kann? Grundsätzlich gilt. Fotos in der Cloud können eingesehen werden.

      • Für mich sieht das zweite Foto jetzt nicht nach irgendeinem Bild aus.

      • Doch rover, es wurde bewiesen. Einfach nochmals den Artikel genau lesen.

        @zSaaiq
        Ja, es dürfte spannend werden. Leider wird so der eigentliche Sinn und Zweck der Massnahme behindert. Vor allem werden Menschenstunden verbraucht, die für die Ermittlungen der wahren Straftäter sinnvoller eingesetzt werden könnten.

      • Nicht nur ifun Artikel lesen die nur die halbe Wahrheit beinhalten. Der entdeckte Hashalgorithmus ist ein allgemeiner Algorithmus welcher NICHT für diese Funktion verwendet wird. Der ganze iFun Artikel ist also mal wieder ein Schnellschuss der nicht korrigiert wurde. Die erzeugten Dubletten sind bedeutungslos da dies nicht der korrekte Algorithmus ist. Apple will den richtigen Algorithmus veröffentlichen. Hash Verfahren sind Jahrzehnte alt. Das ein allgemeines Verfahren nicht für Hashwerte von Bildern geeignet ist kann nicht überraschen.
        Hoffe trotzdem das diese lokale scannen zumindest in der EU nicht zum Zuge kommt.

        PS. Finde das die schlechte Qualität der Berichte in Onlinemedien wie iFun ein Problem ist. Da kann sich Apple immer hinter der Behauptung verstecken das die Kritiker was missverstehen.

  • Wenn Apple also von seiner Maßnahme nicht ablässt, wäre es möglich Apple mit erzeugten falsch- positiven Bildern zu überfluten und so das ganze Verfahren auszuhebeln?

    • Du müsstest schon solche Bilder besitzen. Und mit den Besitz hast du dich schon strafbar gemacht. Ein false positiv Bild wahrscheinlich fast das gleiche Bild sein.

    • Viel einfacher wäre es die Hashwerte illegalen Fotos vor jeder Verbreitung zu ändern oder diese in einer App ohne Zugang zu Fotos zu speichern.

      Daher wird das Verfahren nur die nicht Technik affinen Täter treffen.

      Die Geschichte wird zeigen, ob das in 1000 Jahren als Hexenjagd beurteilt wird.

      Ich hoffe, dass dich das durchsuchen von Privateigentum ohne Anfangsverdacht nicht als Standard etabliert- egal wie abscheulich solche Fotos auch sind.

  • Ok, Apple sagt, dass jede Positiv-Meldung zur Sicherheit von Mitarbeitern durch Anschauen überprüft wird. Das bedeutet, auch Apple schätzt, dass es False-positive geben wird.
    D.h. Apple Mitarbeiter werden sich gegebenenfalls- ohne jeden richterlichen Beschluss – private Fotos von Kunden ansehen, die nichts mit KiPo zu tun haben (false-positive)!
    Wo bitte schön ist der Datenschutz geblieben, den Apple uns versprochen hat?
    Nein, der Zweck heiligt eben nicht jedes Mittel!

  • „Zudem sei die manuelle Prüfung durch Apple-Mitarbeiter vor einer Meldung eine weitere und nicht beeinflussbare Sicherheitsstufe.“

    Ich kann nicht verstehen, warum Apple dies immer wieder als Argument ins Feld führt. Das steht ja noch viel mehr als der hash-Abgleich diametral zur Aussage „what happens on your iphone, stays on your iphone“

  • Also ob ich jetzt einen Hund oder ein graues Bild mit Flecken habe… wow. Ja klar kann man identische Hashwerte erzeugen, aber wie groß muss diese Wahrscheinlichkeit sein dass das Bild auch tatsächlich ein Bild ist und nicht einfach erzeugt worden ist um einen identischen hashwert zu generieren?

    • Das spielt für den Compugter, die KI oder wie auch immer diese technische Funktion benannt wird, keine Rolle.

      – Es gibt eine Bilddatei: Sujet und Herkunft egal.
      – Es wird einen Hash-Wert berechnet.
      – Es gibt einen Treffer.
      – Es soll erst ab 30 Treffer gesichtet werden.
      – Es gibt einen 31-sten Treffer und der nächste Schritt läuft an.

      Ob es wirklich erst nach 30 Treffer weiterläuft, was im Detail für Schritte ablaufen und wie intern das gesichert ist – was wurde schon alles versprochen und als Versprecher hingestellt.

    • Die Hashwerte der Bilder sind öffentlich verfügbar. Somit erstelle ich einfach 31 solcher grauen Bilder, die einen bösen Hashwert haben und sende diese an einen WhatsApp Nutzer in den USA. Seine Einstellung in WhatsApp speichert alle Bilder automatisch in die iCloud Fotobibliothek und schon habe ich ein Leben zerstört, weil diese Person gemeldet wird und trotz Überprüfung und Freispruch nach x Monaten diese Person als Kinderschänder gebrandmarkt ist…

      • Na ja nicht ganz. Ab dem 31. Bild prüft es ein Apple Mitarbeiter, stellt fest dass die Bilder Nonsense sind und bricht an der Stelle erst einmal ab. Die Behörden wird er bei grauen Bildern wohl eher nicht einschalten ;-)

        Womit ich das Verfahren nicht schönreden will und mir geht es ebenfalls gegen den Strich dass Apple sich hier fundamental bedenkliche Dinge herausnimmt die gegen die eigenen Prinzipien verstoßen. Bestärkt mich aber in meiner Denke dass ich iCloud Bilder nie genutzt habe und auch nicht nutzen werde!

      • Das würde mich mal interessieren, wie Du „einfach“ 31 böse Fotos erstellst.
        Und wenn tatsächlich so viele Fke Fotos unterwegs sind wird es bestimmt eine Softwareinstanz geben, die vorab auf optische Übereinstimmung prüft bevor ein Mensch (teuer) da drauf schaut.

  • Was für einen Hash-Algorithmus verwendet Apple denn? Klar gibt es bei jedem Hash-Algorithmus theoretisch immer Duplikate, also mehrere unterschiedliche Datensätze, die denselben Hash erzeugen. Praktisch sollte es aber quasi ausgeschlossen sein zu einem gegebenen Hash ein passendes Dokument zu erstellen. Oder nicht?

  • Viel interessanter wird es dann noch, wenn die Prüfung erweitert wird um zB gewaltverherrlichende Bilder, strafbare Symbole/Zeichen, usw…
    Das Problem was ich hierbei sehe ist, dass ein Mitarbeiter MANUELL prüft und im Zweifel meine privaten Bilder sieht. Das widerspricht doch in jeglicher Hinsicht dem Versprechen, dass meine Daten in Apples Händen gut geschützt sind.

  • Es wird doch immer wieder vermutet, daß die Prüfung deswegen lokal stattfindet, weil die Fotos vor dem Hochladen verschlüsselt werden und somit auch von Apple nicht zu entschlüsseln sind. Wie sollen die dann aber bei einem Treffer dort die Fotos prüfen? Bitten sie dann die Leute, ihnen die entsprechenden Fotos mal rauszusuchen und zu schicken? Oder klopft die Polizei und zwingt einen, das Telefon zu entsperren? Wie soll diese Prüfung durch Mitarbeiter ablaufen? Das wüßte ich gerne.

    • Das geht auch in diesem Fall. Dein Gerät würde dann einfach deine Bilder die zu den in in der Datenbank gefundenen Hash gehören einfach unverschlüsselt zu Apple hochladen.

      • Nein, so funktioniert das nicht. Bildern, die einen Hashtreffer haben, wird jeweils ein sog. Security Voucher beigefügt, der dann zusammen mit dem verschlüsselten Bild hochgeladen wird. Jeder Voucher enthält einen Teil des Schlüssels. Erst, wenn eine ausreichende Anzahl Voucher vorhanden ist, kann Apple den Schlüssel daraus zusammenbauen und kann dann die mit Voucher versehenen Bilder entschlüsseln.

      • … und das ist schon eine vereinfachte Erklärung. Das Technical Whitepaper von Apple beschreibt den ziemlich komplexen Vorgang (es gibt noch eine Menge mehr Verschlüsselungsteilschritte) ausführlich.

  • Die Diskussion geht am eigentlichen Thema vorbei, selbst wenn welches System auch immer zu 101% funktionieren würde.. was hat eine private Firma mit Strafverfolgung und mit eingriffen in meiner/aller Privatsphäre zu..
    Dafür haben wir Behörden und Richter.. und basta

  • Ob Staaten meine Daten unberechtigt ausschnüffeln, oder aber der Konzern Apple, ist mir als User so etwas von Jacke wie Hose.

    Es ist nicht in Ordnung.

    Punkt.

  • Was für unsinnige Fallkonstruktionen. Natürlich könnte ich, wenn ich die Hashwerte kenne, jemanden 30 Bilder senden mit identischem Hashwert, die aber nur graue Pixel enthalten.
    Aber der Empfänger müsste den Quatsch auch noch speichern und die iCloud aktiviert haben.
    Und dann würden diese Bilder auch noch manuell gesichtet und geprüft.

    Wenn ich so jemanden denunzieren will, wäre es viel einfacher demjenigen mit einem Prepaidhandy echte Fotos zu schicken und anonym die Polizei verständigen.

  • Redet mit. Seid nett zueinander!

    Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

    ifun.de ist das dienstälteste europäische Onlineportal rund um Apples Lifestyle-Produkte.
    Wir informieren täglich über Aktuelles und Interessantes aus der Welt rund um iPad, iPod, Mac und sonstige Dinge, die uns gefallen.
    Insgesamt haben wir 37887 Artikel in den vergangenen 8192 Tagen veröffentlicht. Und es werden täglich mehr.
    ifun.de — Love it or leave it   ·   Copyright © 2024 aketo GmbH   ·   Impressum   ·   Cookie Einstellungen   ·   Datenschutz   ·   Safari-Push aketo GmbH Powered by SysEleven