ifun.de — Apple News seit 2001. 26 315 Artikel
Datenschutzrichtlinie überarbeitet

Apple prüft iCloud-Fotos auf Kindesmissbrauch

134 Kommentare 134

Die Änderungen in Apples Datenschutzrichtlinie sind unscheinbar und mindestens schon seit dem 9. Mai vorhanden, die überarbeitete Passage im Abschnitt „Wie wir personenbezogene Daten nutzen“ ist jedoch begrüßenswert.

Icloud Fotos Kinder

Wie dem Blogger Andrew Orr zuerst aufgefallen ist, weist Apple hier nun explizit darauf hin, dass hochgeladene Fotos auf Inhalte geprüft werden, die im Zusammenhang mit der sexuellen Ausbeutung von Kindern stehen:

[…] Wir können Ihre personenbezogenen Daten auch für Zwecke der Account- und Netzwerksicherheit verwenden, in dem wir, zum Wohle all unserer Nutzer, unsere Dienstleistungen durch die Vorabprüfung und das Vorabscannen von hochgeladenen Inhalten auf potentiell illegales Material, wie etwa vor Inhalten im Zusammenhang mit der sexuellen Ausbeutung von Kindern, schützen. […]

Wahrscheinlich ist, dass Apple die iCloud-Fotos seiner Anwender durch eine PhotoDNA-ähnliches Prüfverfahren schiebt, um anhand eines robusten Fingerabdrucks auszuschließen, dass sich bereits bekannte kinderpornographische Inhalte über die eigene Infrastruktur weiterverbreiten.

In der letzten Fassung der Datenschutzrichtlinie vom 4. April 2019 fehlten entsprechende Hinweise noch komplett.

Mittwoch, 12. Jun 2019, 7:44 Uhr — Nicolas
134 Kommentare bisher. Dieser Unterhaltung fehlt Deine Stimme.
Rede mit!
  • toll, aber die können auch lesen, das sollte gar nicht gepost werden

  • Ich frage mich, wie dass funktionieren soll, da die Daten in der Cloud ja angeblich verschlüsselt sind..

  • Ok, das ist ein Minenfeld. Wer würde es nicht begrüßen, wenn dem Missbrauch von Kindern so viele Riegel vorgeschoben werden wie möglich. Aber ich gebe zu bedenken:
    A) wir haben der Vergangenheit mitbekommen , wie rigorosApple seine Moralvorstellungen durchsetzt, was passiert, wenn Eltern ihre Kinder in der Badewanne fotografiert haben oder ihre 2-jährigen nackt am deutschen Badestrand (in den USA wären nackte Kinder am Strand, auch mit 2 Jahren ein absolutes no-Go)?
    B) was passiert, wenn diese Technik dann irgendwann auf andere Motive ausgedehnt wird (als nächstes würde sich Terroristenerkennung anbieten, danach vielleicht Anti-Atomkraft Aufkleber oder Fotos von Fleischprodukten…..)
    Sorry, aber hier wird gespitzelt und das gefällt wir gar nicht, der Zweck heiligt nicht das Mittel

    • Das sehe ich etwa gleich, vor allem Frage ich mich was passiert wenn die KI bei einem Normalen Bild erkennt, es sei ein „verbotenes“ Bild. Wird dann das Bild weiter geleitet? Wird Apple das Bild anschauen? Wird gleich die Polizei dazugeholt? Wer sieht dann meine Bilder?

      Ich denke hier gibt es aktuell noch viele Fehler wie beschrieben…

      • Überspitzt würde ich sagen der BND hat Anspruch auf alle meine Fotoalben…wo muss ich die Uwecks Überprüfung hinschicken?

      • Dem BND sind deine Bilder völlig egal. Er ist nur für die deutsche Auslandsaufklärung zuständig.

      • Jörch, das war echt das peinlichste Statement aller Kommentare hier. Gratulation zu diesem zweifelhaften Ruhm.

    • Absolute Zustimmung! Sehe ich genau wie du! Die automatische Analyse und Auswertung sämtlicher hochgeladene Bilder ist einfach unverschämt! Das war bisher der einzige wirkliche Unterschied zu Google. Google Fotos analysiert schon lange die Bilder serverseitig (und das erschreckender Weise unfassbar gut). Das ist auch der Grund warum Google unbegrenzten, kostenlosen Foto Speicher anbietet…Um seinen Machine Learning Algorithmus damit zu trainieren.
      Ist es das denn wirklich wert? Um eventuell ein paar Kriminelle zu fassen gleich Millionen von iCloud Usern zu „bespitzeln“?

      • Sorry, aber wenn dadurch nur einem Kind geholfen werden kann, dann sollen sie die Bilder durchsuchen.

      • @masc
        Nun mal langsam, genau darum geht es. Ich habe selber eine kleine Tochter und nur die Vorstellung das…nein. Aber ich gebe den anderen Postern trotzdem Recht: Alle unter Generalverdacht stellen und das Tor für Spionage öffnen, ist in meinen Augen der falsche Ansatz!

        Der Zweck (egal welcher) heiligt nicht die Mittel.

      • Es kommt drauf an wie es umgesetzt wird und was zu einer Positivmeldung führt. Wenn Apple hier transparenter wäre und erklären würde wie es gemacht wird…
        Das Problem ist doch, wie soll man solche Fotos finden, wenn man die Bilder nicht durchsucht. Ich finde es auch nicht toll, wenn meine Bilder durchsucht werden, aber wenn man wüsste, wie der Prozess hier aussieht, dann habe ich ja die Wahl meine Bilder in die iCloud zu laden oder nicht.

      • @masc da bin ich absolut anderer Meinung.
        Klar verurteile ich jeden Kinderschänder und hoffe das sie alle gefasst werden! Ich bin allerdings nicht dazu bereit, meine Privatsphäre dafür zu opfern. Man kann nicht einfach Millionen von Menschen überwachen um einige tausend „böse“ zu finden. Ich finde es erschreckend, dass du anscheinend überhaupt kein Problem damit hast.

      • @masc
        Das ist allerdings genau die Argumentation von Seehofer, BND, NSA, und so ziemlich jedem anderen Geheimdienst weltweit. Verschlüsselung hilft halt nicht nur deine Daten zu schützen, sondern auch die Daten von Pädophilen, Terroristen und anderen.

      • @masc:
        Sorry, wenn nur ein Terrorverdächtiger aufgespürt werden kann…
        Sorry, wenn nur ein Komplize eines Bankräubers ermittelt werden kann…
        Sorry, wenn nur das Auto eines vom Unfallort geflüchteten gefunden werden kann…
        Sorry, wenn nur ein krank gemeldeter Arbeitnehmer im Freibad entdeckt werden kann…
        Sorry, wenn nur ein untergetauchter ausreisepflichtiger abgelehnter Asylbewerber gefunden kann…

        Verdachtsunabhängige Kontrollen ohne richterliche Genehmigung sind extrem starker Tobak!

      • ja, wenn! aber oben steht, dass es hier um das erkennen von bereits – vielleicht seit jahren – kursierenden inhalten geht, nicht um die erkennung offensichtlich kinderpornographischer inhalte z. b. gleich beim speichern im fotostream, nachdem es mit einem iphone aufgenommen wurde. wird damit wirklich einem opfer geholfen? oder geht es nicht vielmehr darum, den speicher (oder die weste) eines dienstleisters sauber zu halten?

        die verletzung der privatsphäre unzähliger menschen dürfte hier schwerer wiegen als die sehr unwahrscheinliche chance, dass ein krimineller absichtlich bekannte kinderpornographische inhalte auf eine personalisierte cloud-plattform hochlädt, und das entdeckt wird.

    • Ich halte grundsätzlich nichts von Fotos von nackten Kindern.

      • hast du Kinder?

      • Diese Einstellung ist auch völlig ok, solange du sie nicht anderen aufzwingst.
        Auch von mir gibt es (analoge) Nacktfotos als Baby. Entscheidend ist der Umgang damit. Und gerade deswegen ist dieser Eingriff kritisch. Heute wird nun einmal digital fotografiert und Apple Foto Cloud lädt alles automatisch in die Cloud. Das ist solange ok, wie ich 100% sicher sein kann, dass diese Fotos eben niemand sieht der keine Erlaubnis von mir hat (und sie dann potentiell missbraucht).

      • Was hat das damit zu tun ob man Kinder hat oder nicht?
        Warum muss man seine Kinder nackt fotografieren? Erstmal unabhängig davon ob in der Badewanne oder sonst wo.

      • Weil es manchmal gar nicht anders möglich ist, eben bei allem was mit Wasser zu tun hat. Muss man da fotografieren? Als Erinnerung, weil es niedlich ist…

    • Muss man sein eigenes Kind denn in der Badewanne nackt fotografieren? Das habe ich noch nie verstanden.

      Deswegen hasse ich es z.B. wenn meine Eltern anderen Personen Kinderalben zeigen.

      • Du kannst ja sagen, dass er jetzt schon viel viel größer ist.

      • Wenn ein Kind in der Badewanne sitzt, ist es obenrum zwangsläufig nackt Kann Apple das unterscheiden? Der größte Teil ist nun mal nackt in dem Moment. Warum man Kinder in der Wanne fotografiert? Weil sie dort das glücklichste Gesicht machen. Diese Freude in den Kinderaugen (max bis 5 jahre) findest du selten. Abgesehen davon, machen nicht die Väter unbedingt diese Art der Fotos sondern meist die Muttis. Und ich unterstelle mal denen keine bösen Absichten. Aber auch unter Kinder ist dieses Thema sehr heikel. Letztens erst einen Fall in der Nachbarschaft gehabt, wo die Mädels „Scheibendoktor“ gespielt hatten, sich frei gemacht hatten und dabei mittels einer digitalen Kinderspielzeugkamera fotografiert hatten. Das Gesprächsthema schlechthin hier im Kaff und der Vater hat geschwitzt dass glaubt ihr gar nicht. Von daher finde ich diese Stigmatisierung seitens Apple einfach nur falsch. Es trifft immer die falschen. Diese Ausnahmen gefallen mit gar nicht. Wo setzt man da auch die Grenze? Werden Homekit Innenkameras auch ausgewertet um häusliche Gewalt zu unterbinden? Und warum ist solch eine Straftat schlimmer, als Fotos von Terrorismus? Wo liegt die Opferzahl im Zweifel höher? Hier wird mit zweierlei Maß gemessen und es nervt mich einfach, dass Apple hier die kleinen Kinder vorschickt. Wiederlich. Und die Leute feiern es auch noch. Und demnächst wird man angeprangert wenn man die iCloud nicht benutzt, denn dann hat man ja was zu verbergen. Oh oh, da gabs schon etliche Filme darüber.

      • @rudi
        Mag sein, dass man als Kind in der Badewanne ein glückliches Gesicht macht, aber denkt einer mal an das Kind wie es sich später fühlt? Ich hab nicht geschrieben, dass ich Muttis schlimme Absichten unterstelle. Aber zwangsläufig zeigen Eltern diese Fotos auch noch Freunden und spätestens wenn man gescheit denken kann, hat man ein Schamgefühl. Ich finde es echt nicht super, dass andere diese Bilder von mir sehen. Damit bin ich bestimmt nicht allein. Man kann garantiert auch in anderen Situationen wunderschöne Fotos machen.

        Generell wird zu viel von den Kindern dokumentiert und geteilt… ist aber ein anderes Thema.

      • Da bin ich ganz deiner Meinung. Dieses geteile von Kinderbildern finde ich persönlich ganz schrecklich und verurteile ich. Noch schlimmer wenn im WhatsApp Status wo jeder Handwerker, jeder Versicherungsvertreter das sehen kann der deine Nummer hat. Abartig. Das sollte man unter Strafe stellen. Ich habe kein einziges Bild unseres Kindes irgendwo geteilt. Zum verschicken von Bilder an Oma und Opa mache ich auch nur über iMessage.

      • Jeder Handwerker der meine Telefonnummer hat kann meine Bilder sehen, die ich in WhatsApp geteilt habe? Was hast du denn getrunken?

      • Sehe ich genauso.
        Würde mich auch tierisch aufregen hätten meine Eltern damals Nacktfotos von mir gemacht hätten. Gut ich habe mich auch schon damals als Kleinkind geweigert nackt Baden zur gehen.

        @Siri Aha bei allen mit Wasser müssen Kinder also nackt sein, klar Badeanzüge/Badehosen für Kinder gibt was natürlich nicht…
        Und ja mega süß, besonders wenn das Kind sich nicht dagegen wehren kann und findet das Kind natürlich auch mega toll wenn später die Bilder von den Eltern und ihren bekannten angeschaut werden…

      • sehr persönliche Stellungnahmen hier. Ich hätte kein Problem, wenn meine Mutter nackte Kinderfotos von mir rumgezeigt hätte. Viel zu banal.
        Und wer sagt, dass Eltern die gemachten Bilder herumzeigen? Und warum sollte man nicht fotografieren, wenn man sonst überall fotografiert. tolle Momente, wenn sie mit Schaum und Ente spielen.
        Und wer seine Kinder mit Badeklamotten in die Badewanne setzt, hat ganz andere Probleme.

    • Absolut. OneDrive macht das auch und da stand dann auch mal das BKA in der Tür. Das ist dann auch ziemlich traumatisch für dein Kind. Und wenn ich sehe, wie falsch diese automatische Bilderkennung ist, sollte da kein Leben von abhängen.

      Auf der anderen Seite: Kindesmissbrauch … Schwieriges Thema.

    • Punkt A ist kein Problem.
      „…um anhand eines robusten Fingerabdrucks auszuschließen, dass sich bereits bekannte kinderpornographische Inhalte über die eigene Infrastruktur “
      Es geht um bereits bekannte und identifizierte Inhalte. Neue fallen da nicht auf. Wenn Du selbst KiPo herstellen würdest, wäre das kein Problem – solange diese nicht den Strafverfolgern irgendwo in der Welt bekannt wird.
      Die Hashen dann nämlich und ab dann wird gefiltert.

    • seh ich genauso, Kinderpornographie muss verfolgt werden aber auf was wird es mal ausgedehnt und dann wird auf einmal Remote ein Bild gelöscht weil irgend ein Algorithmus sagt das verstößt gegen xyz nur weil es der moralischen amerikanischen Nation nicht gefällt.

  • Heißt somit Apple hat Zugang zu den in der iCloud gespeicherten Fotos. Sonst könnten Sie diese ja nicht scannen. Das zum Thema Privacy, auch wenn das Ansinnen löblich ist.

    • Du machst dir deine Welt, wie sie dir gefällt.

      Das ist schlichtweg falsch. Die Analyse der Bilder findet auf dem Gerät statt, es bedarf keiner Cloud dazu.
      Wie sonst glaubst du würde es funktionieren, dass du in deinen Bildern (ohne vorher verschlagenstes zu haben) nach z.B. „Hund“, „Baum“, „Blume“ suchen kannst?
      Das macht alleine die ML.
      Das Thema ist nicht neu, soweit ich weiß mit IOS 12 eingeführt worden. Und JETZT regen sich alle darüber auf? Ohne zu wissen, was da genau passiert? Seltsam. Nur weil jetzt jemand KiPo geschrieben hat.

      • Moin …
        Ok … mal etwa das Akrolevel etwas runter schrauben. Etwa mehr direkt auf das bezogen was im Artikel steht. Es steht hier explizit das hochgeladenen entsprechend gescannt werden könnten. Sprich nicht schon auf meinem Gerät.
        Wie es am Ende umgesetzt wird bzw. werden kann steht aktuell noch auf einem völlig anderen Blatt.
        Sollten sie es allerdings tatsächlich so umsetzen das es erst auf der iCloud gescannt wird, wird es im Sinne der so hochgehaltenen Privacy eng.
        Egal ob es um nen Hinter von nem Gör geht oder sonst was.

        Gruß

  • Ich frage mich, wie das funktionieren soll. Automatismen bei Bildern haben meist die Eigenschaft ziemlich frei zu interpretieren. Der Hintergrund ist sehr begrüßenswert, jedoch habe ich Bauchweh, dass inzwischen überall eine Art Grundüberwachung stattfindet oder gefordert wird. Das finde ich ziemlich Bedenklich. Ich bin immer noch ein Mensch. Es scheint, dass die grundsätzliche Unschuldsvermutung nur noch eine Worthülse ist.

  • Generell ist sowas ja wünschenswert. Aber wie zuverlässig sind die Algorithmen? Und was passiert, wenn der Algorithmus ein Bild als verdächtig einstuft? Schaut dann ein Mensch drauf? Welche Informationen hat dieser Mensch über den Account? Meiner Meinung nach fehlen zu dem Verfahren noch einige wichtige Informationen.

  • Gebt euch keiner Illusion hin. Die entsprechenden amerikanischen Institutionen surfen auf eurem iCloud-Konto herum, gerade, wie es ihnen passt. Offiziell würde das Apple niemals zugeben, aber was Homeland Security als notwendig ersieht, wird gemacht. Ich habe einen amerikanischen Bekannten, der in diesem Sektor arbeitet und euch würden die Haare zu Berge stehen, wenn ihr wüsstet, was alles so inoffiziell auf euren iCloud-Konten ohne euer Wissen abgefragt und analysiert wird…

  • Naja so sinnvoll ich das auch finde und die Beweggründe auf jeden Fall nachvollziehen kann, so bedenklich finde ich es auch.
    Wenn hochgeladene Daten nun mit ML ausgewertet werden, ist Apple nicht besser als Google. Kein Algorithmus kann sowas mit 100 prozentiger Sicherheit erkennen. Dementsprechend wäre immer auch eine menschliche Kontrolle der Fotos/Videos nötig und das widerspricht eigentlich Apples Datenschutz Auffassung.
    Hashing auf dem Gerät halte ich nicht für realistisch….Das kostet auch ne Menge Rechenleistung (Hab ich gerade erst bei meinen lokalen Daten durch, zwecks Integritätsprüfung) Wobei ich damit noch leben könnte.
    Ich denke eher das läuft Serverseitig und damit werden dann hochgeladene Inhalte genau so analysiert wie bei Google auch. Apple mag diese Daten zwar nicht für Werbezwecke verwenden, das Image als „Datenschutz Konzern“ ist für mich damit allerdings dahin.
    Ich wünsche mir Von Apple, dass zumindest meine eigenen Bilder vor dem Upload in die iCloud verschlüsselt werden und nur auf meinen Geräten wieder entschlüsselt werden können….das wäre eine gute Implementation. Wie sowas gut und in the fly funktioniert zeigt Cryptomator schön. Damit verschlüssele ich mittlerweile alles andere was in meinen Clouds liegt.

    • Kein ML nötig.
      Es geht um Hashes.
      Da wird nicht wirklich erkannt was drauf ist.

    • Was du dir so denkst, ist deine Sache. Aber eben nicht zwangsläufig richtig.

      Fakt ist, dass ML auf dem Phone läuft. Immer dann, wenn du dein iPhone flach hinlegst und der Ruhemodus für min. 15 min aktiv ist. Dann werden deine Bilder analysiert (von einer Maschine). Das kannst du übrigens schön beobachten mit einer Wärmebildkamera (oder mal am Geräterücken fühlen, der wird dabei nämlich spürbar warm).

      Fotos sind in iCloud genauso verschlüsselt abgelegt wie alle anderen Daten auch. Nur mit deinem Apple-ID-Passwort können die entschlüsselt werden, also reg dich mal wieder ab.

      Wieso vergessen eigentlich so viele Menschen die Features der vor-vorherigen WWDC? Unglaublich…

      • „Fotos sind in iCloud genauso verschlüsselt abgelegt wie alle anderen Daten auch. Nur mit deinem Apple-ID-Passwort können die entschlüsselt werden, also reg dich mal wieder ab.“

        iCloud Fotos sind nicht Ende-zu-Ende-verschlüsselt, d.h. Apple hat Zugriff.

  • Ok, das wars für mich mit Apples Cloud.

    Ja – das Ansinnen dahinter ist lobenswert.
    Für mich persönlich stellt sich die Frage, zu was das führen könnte.

    Ein Beispiel, Vater mit 3 jähriger Tochter nackt in der Badewanne. Oder kleine Kinder tollen im Sommer nackig im
    Garten herum. Erwachsene sitzen auf der Terasse.

    Der Algorithmus kennt die Zusammenhänge nicht, sieht nur einen nackten Mann und ein Kind in der Wanne.

    Droht mir da Besuch vom Jugendamt oder von der Polizei?

    • Es ist definitiv nicht möglich sowas mit hundertprozentiger Sicherheit zu erkennen. Daher müsste immer auch ein Mensch drüber schauen. Ich bin gerade tatsächlich auch am überlegen mich von iCloud zu trennen obwohl ich bisher absolut begeistert von iCloud Fotos war.

      Die Zusicherung Apples, dass Sie meine Daten nicht auswerten, habe ich bisher geglaubt. Das gerade hier gibt mir allerdings zu denken.
      Ich habe natürlich keine so wichtigen Oder persönlichen Fotos in iCloud, dass die unbedingt schützenswert wären…mir geht’s da aber ums Prinzip.

      Man kann den Menschen nicht einfach die Privatsphäre absprechen, nur um ein paar Kriminelle zu fangen. Leider bewegt sich alles immer mehr in diese Richtung

    • Selbst wenn die Polizei ausrückt, dann wird das Bild besprochen und gut. Lieber gibts mal nen Kaffee für die Polizei bevor einem Kind etwas derartiges passiert.

      Daumen hoch.

      • Na dir wünsche ich mal so einen Besuch.

      • nein – da wird erst mal nichts besprochen.
        Sowas kann einen ruinieren.

        Ein Beispiel: Mann, geschieden, Tochter.
        Was glaubst Du, was erstmal mit Diesem Besuchs/Umgangsdrecht passiert, wenn das Jugendamt von solchen Bildern erfährt und Deine Ex dir sowieso eins reinwürgen will?

      • Das kann bei Badewannenbildern oder am Strand wohl kaum passieren.

      • Ich habe keine derartigen Bilder, daher können die gerne vorbeikommen.

      • Ja genau, die Polizei kommt ganz locker vorbei um erstmal deine Fotoalben mit dir bei einem Kaffe zu begutachten. Die werden erstmal eine Hausdurchsuchung machen und deine Bude auf den Kopf stellen.

      • … und dein Kind mitnehmen und unter die Aufsicht des Jugendamtes stellen. Unseren Nachbarn so passiert, allerdings mit analogen Bildern in Zeiten der aufkommenden Bilderdienstleister.

    • Das wird noch kritischer, wenn man bedenkt, dass das alles ethnographischen Moralvorstellungen unterliegt. Sprich: In Europa kein Problem. In den Staaten kommst du dafür schon in den Knast. Siehe auch Instagram und Co, bei denen nicht-EU moralisch unterschieden wird. Wenn ich daran denke, wie oft unsere US Verwandtschaft hier in Deutschland schon vor 30 Jahren einen Herzinfarkt bekamen, als meine Mutter eine „Vogue“ auf dem Tisch mit einer halb nackten aber bedeckten Kate Moss auf dem Cover hat liegen lassen :-| …

    • Ich zitiere aus dem obigen Text:“Wahrscheinlich ist, dass Apple die iCloud-Fotos seiner Anwender durch eine PhotoDNA-ähnliches Prüfverfahren schiebt, um anhand eines robusten Fingerabdrucks auszuschließen, dass sich bereits BEKANNTE kinderpornographische Inhalte über die eigene Infrastruktur weiterverbreiten.“

      • Danke. Das wollte ich auch schon schreiben. Alle regen sich auf für nix.
        Habt ihr den Text nicht gelesen? Oder mal wieder nur die Überschrift.

        Und wenn ihr ihn gelesen habt, habt ihr ihn auch verstanden?

        Man man man

      • Ich zitiere aus dem obigen Text: „Wahrscheinlich“. Das reicht eigentlich schon. Letztendlich ist der von dir zitierte Satz eine berechtigte Mutmaßung von Nikolas, aber wird von Apple so nicht kommuniziert.

    • In den prüden USA bestimmt, in Deutschland eher nicht ;)

      Was mich eher interessieren würde ist ob Apple jemals versprochen hat dass die Photos in der Cloud verschlüsselt gespeichert werden.

  • Ist das die selbe Methode wie Sie Google verwendet bei Gmail?
    Also mit der Hash Bibliothek?
    Sobald ein Bild gemeldet wird kommt der Hash in die Datenbank. Wenn es nochmal auftaucht wird es gemeldet? Bei diesem System hätte ein Screenshot von dem Bild dann wieder ein anderen Hash und das System erkennt es nicht.

    Ich finde es grundsätzlich ebenfalls kritisch eine Überwachung mit einem Thema wie Kindesmissbrauch anzufangen (da niemand was dagegen hat) und sich so die Tür aufzuhalten um alle möglichen andern Filterarten nachzureichen.

    Google Zb. Sagt sogar explizit das selbst Mordaufträge oder Terror nicht gescannt werden bzw. weitergeben werden.

    Wenn jedoch irgendwann auch Bilder oder Texte gescannt werden die etwas gegen die Regierung oder ähnliches haven, könnte man diese Menschen nicht nur sehr schnell ausfindig machen sondern auch Mundtot.

  • Nachtrag:

    Ein Beispiel:
    Ein WhatsApp Account wird gehacked, dieser lädt alle Kontakte in eine Gruppe ein und verschickt Kinderpornografie an alle, dieses Bild wird bei den meisten automatisch gespeichert und dann auch automatisch in die iCloud hochgeladen. Sind diese dann alle Straffällig geworden?

    • Zumindest nach deutscher Gesetzeslage wäre dies so, das Verfahren würde aber wohl eher eingestellt werden, zumindest wenn man erklären kann, wie das ganze zustande kam. Nur der Sender hat dann ein großes Problem, zurecht.

      • Ja, sofern die Polizei ein Statement per Brief möchte. Wenn allerdings jemand vor der Türe steht und dir schön laut mitteilt, dass wegen Verdachts auf Kinderpornografie ddeine Wohnung durchsucht wird, dann hoffe mal inständig dass du nicht in einem Mehrfamilienhaus wohnst. Denn egal wie erklärbar das alles ist, deine Nachbarn haben nur die Durchsuchung mitbekommen.

        Rechtlich gesehen hat nur der Sender ein Problem. Man selbst darf aber höchstwahrscheinlich umziehen.

    • Schon ohne iCloud wäre man strafbar.
      Wenn Du ein KiPo Bild per WhatsApp (oder wie auch sonst) geschickt bekommst bist Du strafbar. Der BESITZ ist schon strafbar.
      Man sollte in einem solchen Fall folgendes tun: Zur Polizei gehen und die Sache schildern. Es wird vermutlich ein Verfahren wg. Besitzes gegen einen selber aufgenommen, aber wieder eingestellt. In einigen Fällen aber auch nicht das. Jedoch bleibt man auch nur auf diesem Weg 100% straffrei. Wenn das Bild irgendwann später entdeckt wird… tja… Besitz Kinderpornografie – strafbar.

      • Gefährlicher Irrglaube und Humbug:
        Strafbar nur mit Wissen und Wollen. Auf einer Schulung sagte eine Polizeibeamtin auch, dass regelmäßig auch gegen den Empfänger ermittelt wird, denn womöglich ist es kein Zufall, dass er solches Material bezogen hat.
        Und 100% straffrei im Zusammenhang mit Justiz und Gericht zu reden, ist sehr mutig. Viel Glück beim Besuch bei der Polizei.
        Empfohlen wird eher, das Bild sofort zu löschen. Ich würde nicht riskieren, dass mein teures Handy für 6-24 Monate einbehalten wird zur „analyse“. lol.

  • Was manche hier wieder für Panik schieben. Wie Nicolas schon geschrieben hat, wird Apple sicherlich eine (ähnliche) Methode nutzen, welche andere Hersteller schon in Nutzung haben. Es gibt Datenbanken mit Hash-Werten von bekannten KiPo Bildern. Apple wird also sicherlich auch den Weg gehen und mit einem Hash-Wert arbeiten. Da sitzt keiner rum und schaut sich Milliarden Fotos an.
    Die einzig interessante Frage ist, was Apple macht wenn ein entsprechendes Foto auftaucht.

  • Es geht um bekanntes Kinderpornographisches Material, nicht um private Aufnahme aus dem Familienalbum, wie z.B. dem genannten Urlaub am Strand oder Garten.

  • Und ich hatte gerade noch überlegt, mein 64er iPhone etwas zu entlasten von seinen 20GB Bildern. Dann wohl doch nicht. (Und nein, ich mache keine kinderpornographischen Bilder).

  • Vom dem zweifellos ehernem genannten Beispiel abgesehen…
    Bei „pre-screening or scanning uploaded content for potentially illegal content“ wurden Vertreter der Staatsorgane und Rechteinhaber sicher schon beim Lesen ganz feucht im Schritt.
    Oder andersrum gefragt: Welcher hochgeladene Content ist den zweifelsfrei legal, wenn hier von einer eventueller Möglichkeit einer Illegalität eines Inhalt gesprochen wird?

    • ALLES was nicht in einer Datenbank mit BEKANNTEN kinderpornografischen Inhalt gelistet ist.

      Lest ihr die Texte eigentlich richtig und komplett, oder reagiert ihr nur auf bestimmte Schlüsselwörter?
      Schlimm….

      • Kannst du weiterdenken? Wie entsteht eine Datenbank? Durch Sammeln von Information die nicht in der Datenbank vorhanden sind und anschliessend in der Datenbank ergänzt werden. Sonst wäre das aufwendige scannen ziemlich sinnlos.

      • @OliverH
        Bist du sicher dass du das richtig gelesen hast? Schau lieber nochmal nach. Das mit den bekannten Inhalten ist von Nikolas, Apple hat dazu nichts gesagt.

  • Noch zur Ergänzung, die entsprechende Textstelle lautet:

    „durch die Vorabprüfung und das Vorabscannen von hochgeladenen Inhalten auf potentiell illegales Material, wie etwa vor Inhalten im Zusammenhang mit der sexuellen Ausbeutung von Kindern,“

    Kinderpornograhie ist eindeutig nur ein Beispiel, gut geeignet um sofortiges „Verständnis“ zu generieren. Tatsächlich wird aber offenbar nach allen „potentiell“ illegalem Material gescannt.

    Was bitte schön ist darunter zu verstehen? Und wie gesagt nicht nur nach tatsächlich illegalem Material, sondern nach POTENTIELL illegalem Material!

  • Ein schwieriges Thema. Wer jetzt in dem Zusammenhang sagt ich mach das aus, dem wird irgendwie gleich irgendwas vorgeworfen. Ich erinnere mich noch wie ein Typ durch die Medien ging der seine nakidai Kids am Strand fotografiert hat, die Bilder ins OneDrive geladen hat und auch ruckzuck Probleme mit der Justiz hatte. Lässt sich bestimmt googlen. Aber ich finde es auch gut. Gut weil wir jetzt wissen was mit unseren Fotos gemacht wird.

  • Na liebe Fanboys, seid ihr immer noch so sicher, dass Apple über seine iCloud ja überhaupt nicht an eure Daten rankommen kann, da ja alles angeblich bis zur Unkenntlichkeit verschlüsselt ist?

    Apropos iCloud, kann mir jemand erklären, warum aus der icloud gelöschter content auch automatisch von allen Geräten gelöscht wird?

    • Weil das das Konzept von iCloud ist!? Deine Daten synchron auf allen Geräten. Dadurch muss eine gelöschte Datei überall gelöscht werden. Alles andere wäre ein unlogisches Chaos.

  • Ich bin sowieso für mehr Überwachung. Es sollte auch überall Verkehrskameras geben. Eine DNA-Probe kann auch gerne genommen werden. Es gibt so viele ungeklärte Straftaten und es sollte jedem am Herzen liegen, dass seine Familie und Freunde durch Überwachung sicherer sind.
    Die meisten Kommentare ähneln sich sehr: „Tolle Idee, ABER…“ Ich sage ja immer, dass mir egal ist, ob Apple weiß, wann ich routinemäßig wo hinfahre. Ist mir auch egal, ob sie meine Fotos sehen. Es ist ein kleiner Preis dafür, dass Kinder geschützt werden. Wer pocht hierbei auf sein „Recht“ und lässt dafür lieber Pädophile ungestört ihr Unwesen treiben?!

    • Setzen, 6.

      Strafhausaufgabe: 1984 lesen.

    • Wer auf sein Recht pocht? Jeder der genügend Vorstellungskraft besitzt, um sich eine Zukunft ohne Privatsphäre und unter ständiger Kontrolle vorzustellen.
      Ich muss zugeben, bei vielen Dingen kümmert es mich auch wenig.
      Die Paranoia gegenüber Kartenzahlung Teile ich zum Beispiel nicht. Bei meinen Privaten Bildern hört es dann allerdings wirklich auf…!

    • Tja Else,

      irgendwann passiert ein Verbrechen.
      Sagen wir mal ein Kind wird entführt.
      Dummerweise bist Du in letzter Zeit öfters dort am Haus der Eltern vorbeigefahren.
      Durch die Auswertung der Bewegungsdaten kommst Du in das Raster der ermittelnden Beamten.
      So – und jetzt spinne das mal weiter.

      Achja, die Daten bleiben erhalten. Die politische Lage kann sich ändern.

      • Und dann liegt es nicht an Else, ihre Unschuld zu beweisen. Noch Fragen?

      • Die Wirklichkeit ist keine amerikanische Serie wie Prison Break, in der jemand durch Manipulation der Beweise zur Todesstrafe verurteilt wird. In meiner Nachbarschaft wurde letztes Jahr Feuer gelegt und ich hätte mir gewünscht, dass man durch irgendwelche Überwachungsmaßnahmen die Täter hätte ermitteln können. Ich finde, dass die Sicherheit unschuldiger Menschen gewährleistet werden sollte.

  • Welches Gesetz bestimmt denn die Illegalität? Apple eigenes, China, USA oder Saudi Arabien? Was, wenn ich in Saudi-Arabien unterwegs bin, werden dann meine Homo Fotos konfisziert?

  • @ifun Könntet ihr einen solchen Artikel vielleicht erst veröffentlichen, wenn die technische Funktionsweise transparent erläutert wurde bzw. das in eurem Artikel aufführen / herausfinden?
    Die Aussage „Apple scannt Bilder, aber wie sie das tun, keine Ahnung“ finde ich leider wenig hilfreich.
    Man sieht bei solchen Themen ja, wie Mutmaßungen in sämtliche Richtungen in den Kommentaren stattfinden. Das bringt nur leider niemandem etwas, wild zu spekulieren.
    Daher würde ich mir wünschen, solche Themen zu recherchieren und erst dann darüber zu berichten, um zu verhindern, dass hier wieder uninformierte Pseudodiskussionen in den Kommentaren starten.
    Danke!

    • Und wenn Apple es nicht erläutert? Soll dann das Thema verschwiegen werden? Gerade bei Apple. das gerne mal erst dann reagiert, wenn die Öffentlichkeit aufschreit, sollte man sowas berichten sobald etwas bekannt ist.

  • Zitat Apple Datenschutz:
    Außerdem können wir Daten über Sie offenlegen, wenn wir der Überzeugung sind, dass dies für die nationale Sicherheit, den Gesetzesvollzug oder andere öffentliche Interessen notwendig oder angemessen ist.

  • Drei Dinge dazu:

    • Es fehlen Infos über das Verfahren, um es bewerten zu können.
    • Jede Freiheitseinschränkung kann mit einem sehr guten Zweck verargumentiert werden.
    • Das erste Bad oder das lustige Spiel mit Badeschaum auf dem Kopf sind Dinge, die Eltern natürlich als Erinnerung festhalten können sollten.

  • Mit dem ersten Glied ist die Kette geschmiedet…

  • Das wäre der Horror. Sowas kann keine Maschine oder Algorithmus der Welt händeln. Wer das glaubt ist naiv. „Mir macht das natürlich nix aus, ich habe eine saubere Weste“ hör ich hier.Habt ihr mal an eure Kinder gedacht? Und ich meine nicht als Opfer. Wie wart ihr denn mit 14, 15, 16? Wenn ihr damals ein Smartphone hättet, wieviele Selfies hättet ihr von Euch gemacht? Immer in Klamotten? Und was ist wenn die minderjährige Freundin sich von ihrem minderjährigen Freund fotografieren lässt? Glaubt ihr das sind Einzelfälle? Könnt ihr das kontrollieren? Wer kann das unterscheiden? Wer trägt die Verantwortung in einem Familienaccount?

    • Genau das habe ich mir auch gedacht. Strandnackedei oder Badewannenfoto hin oder her, das ist in den USA zwar auch schon ein schwieriges Thema, aber solche Fotos werden seitens der Behörden vermutlich eher nicht auf den „Index“ kommen. Anders verhält es sich jedoch mit nur allzu freizügigen Selfies, die Jugendliche von sich selbst machen, und in nicht wenigen US-Bundesstaaten ist alles unter 18 eben „Kinderpornografie“. Und wenn geleakte Nacktfotos von Promis im Netz getauscht werden, dann werden solche Aufnahmen von Jugendlichen in den entsprechenden Kreisen erst recht verbreitet und von der Polizei registriert. Ich stelle mir das ziemlich gruselig vor, wenn Apple beim Scannen der Cloud-Uploads auf solches Material stößt und den Behörden meldet, und dann das FBI die Tür der betreffenden Familie eintritt und womöglich auch noch wild um sich schießt. Aber selbst wenn nicht, die Betreffenden werden auf jeden Fall ein Verfahren an den Hals bekommen und als „Sex Offender“ registriert, und dann ist deren restliches Leben gründlich im Eimer…

  • Um es auf den Punkt zu bringen: wer diesen Eingriff in die Privatsphäre (und dazu zählen m.E. die eigenen Fotos in der gebuchten Cloud) mit welcher Verbrechensaufklärung auch immer rechtfertigt sollte auch dafür sein, dass die Polizei routinemäßig bei jedermann eine Hausdurchsuchung machen darf. Es könnte ja etwas gefunden werden.

  • Alle haben zugestimmt aber keiner hat es gelesen. Finde ich ja irgendwie süss die Aufregung hier ;)

    Solange man nicht weiß wie apple das erledigt, bringt sich aufregen übrigens gar nichts. Wenn es nämlich nur über einen daemon und einem hash vergleich mit bekannten bilder auf dem gerät vor der verschlüsselung passiert, hat sich das alles erledigt.
    Also abwarten bis mehr Infos kommen

    • Wie recht du hast. Erst einmal abwarten, reagieren können wir ja immer noch wenn es dann so weit ist. Warten wir doch mal ab was die plaudertasche Apple dazu sagt, die werden das schoin Lückenlos für uns aufklären. What’s on the iPhone, stays on the iPhone. Wir sind doch deutsche, also verhalten wir uns bitte auch so. Nicht agieren, sondern reagieren. Also erstmal warten und später dann reagieren, evtl morgen, oder later this year, vielleicht…mal sehen. Wie, ich bin dazu verpflichtet ihnen meinen Bauchumfang zu melden? Wo steht das?

      • Und was willst du schlauberger machen?
        Als ob das irgendwen bei Apple interessiert wenn ein paar deutsche Bedenken haben bei einer Funktion die keiner weiß wie sie funktioniert außer Apple.
        Bisschen nachdenken bitte

  • Sehr bedenklich
    Es ist nicht die Aufgabe von Apple alle Fotos generell zu überprüfen. Natürlich wenn ein Verdacht vorliegt und oder es eine richterliche Anordnung gibt. Grundsätzlich sind meine Fotos ausschließlich meine Fotos. Ich werde sicher nichts mehr in die Cloud hochladen. Diese generelle Überwachung finde ich sehr bedenklich, auch wenn ich eigentlich nichts zu verbergen habe.

  • Wie sieht es mit dem Fotostream aus?

    • Würde mich auch gerne interessieren! Man könnte den Absatz auch so interpretieren, dass nur Fotos offiziell geprüft werden, wenn sie geteilt werden. Also das Gerät prüft lokal JEDES Foto und erst bei der Freigabe wird diese Prüfung bei Bedarf an Apple gesendet. Es geht primär um das Verhindern des Verbreitens von illegalen Inhalten.

      Demnach wäre der Fotostream ja nicht öffentlich / freigegeben, müsste also ausgenommen sein.

      Wenn es genau um diese Absicht geht, finde ich den Ansatz gar nicht mal so schlecht, wenn es genau dabei bleibt! Allerdings ist der Absatz derart schwammig formuliert. Diese Unklarheiten lassen somit viele Interpretationen zu. Das leise Hinzufügen dieses Absatzes macht es irgendwie auch nicht vertrauensvoller.

      Ich persönlich bin absoluter Gegner dieses Features. Ich frage mich folgendes:
      Wenn Straftäter jetzt also keine Bilder mehr teilen oder in die iCloud laden, liegen diese ganzen Informationen dann nutzlos auf den Geräten rum? Apple wird doch nicht so einen Algorithmus entwickeln, der per Aus- Taste zu umgehen ist. Vorallem wird der Algorithmus ja immer besser und genauer. Sprich: Wenn der Algorithmus ausgereift ist und genau genug ist, wird Apple den nächsten Schritt gehen und die Informationen entsprechend früher auswerten.

      Und: Die Definition von Illegal ist regional verschieden. Ich will weder, dass Apple sich da politisch einmischt, noch, dass Apple politisch zum Mitwirken (Anpassen) gezwungen ist. An dieser Schnittstelle könnten sich mehrere Institutionen interessieren.

      Wie gesagt, dass Verhindern vom Verbreiten könnte ich gerade so noch tolieren. Das lokale Überprüfen wäre schlau, wenn es denn nicht so schwammig argumentiert würde.

      Aber so ist es tatsächlich mit einem Durchsuchungsbefehl gegen alle Nutzer zu vergleichen.

  • An diejenigen, die derartige Überwachung gut finden: Apple schützt sich mit dieser Maßnahme ausschließlich selbst, nicht eure Kinder. Durch das Vorabscannen wird nur verhindert, dass potentiell illegales Material in die Apple-Infrastruktur gelangt. Damit ist dann Apple auf der sicheren Seite. Man hat ja mit der Straftat an sich nichts mehr zu tun. Von Anzeigen gegen den Nutzer bei den Behörden ist nicht die Rede. Der Kinderschänder ist also womöglich gewarnt, dass sein Bildmaterial als illegal erkannt wurde, muss aber keine Strafverfolgung befürchten.

  • Immer diese Schwarzseher und Verschwörungstheoretiker. Selbstverständlich wird ein Mensch letztlich entscheiden, ob das, was die KI ihm präsentiert, dann relevant genug ist, weitere Schritte einzuleiten. Und von mir aus kann es den ganzen Terror-Dreck auch gleich automatisiert filtern und die iPhones fernsperren usw.

  • Alle guten Vorsätze in Ehren, aber
    Apple verspricht auf der Webseite :Niemand außer Ihnen – nicht einmal Apple – kann auf die Ende-zu-Ende verschlüsselten Daten zugreifen.

    https://support.apple.com/de-de/HT202303

    Dies gilt für die Cloud und da werden auch die Fotos gespeichert.
    Dann scheint das ja wohl doch nicht zu stimmen oder wie soll das funktionieren?

    • Apple weist doch explizit die Komponenten aus, die Ende-zu-Ende-verschlüsselt sind (Schlüsselbund, Gesundheitsdaten, etc.).

      Dort sind Dinge wie Fotos und iCloud Drive NICHT aufgezählt. Zu allen Komponenten, die verschlüsselt aber nicht Ende-zu Ende-verschlüsselt sind, besitzt Apple den Schlüssel und somit Zugriff.

      • Stimmt. Das haste Recht. Dann war es das wohl mit Fotos für ICloud und ich wechsel zu Synology NAS.
        Ich hab zwar nichts zu verbergen, aber ich möchte meine Privatsphäre gerne behalten.
        Es gibt Grenzen. Was nehmen die sich als nächstes heraus?

  • Das mit dem Kindesmissbrauch ist doch Blödsinn! Die wollen den Zugriff auf iCloud-Fotos legitimieren und machen das mit einem Vorwand, zu dem niemand eine entgegengesetzte Position einnehmen würde.

    Wenn dieses Vorgehen so wichtig ist, wo sind denn die Auswertungen, wie Erfolgreich die Schnüffelei ist?

    Blödsinn, Apple – absoluter Blödsinn!

  • Es gehr Apple einen feuchten Dreck an, was ich für Photos mache. Ich veröffentliche meine Photos nicht im Facebook oder in weiteren öffentlichen Sozialplattformen, auch nicht beim Apple Welt Publikum. Wenn ich mit meinem iPhone Photos mache, so sind halt die Photos automatisch in der iCloud, jedoch nicht beim Welt Publikum. Ich mache auch nicht meine Photos für Apple. Nun weiss ich, dass ich die iCloud nicht mehr üppig nutzen werde. Ich habe eh eine viel bessere Kamera App ( ProCam ) für das iPhone und kopiere meine Photos direkt auf einen viel besseren und geschützten Cloud Server( pCloud ) mit Sitz in der Schweiz.

  • Ganz einfach:
    Private Daten haben nichts in einer (amerikanischen) Cloud zu suchen!

  • Redet mit. Seid nett zueinander!

    Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

    ifun.de ist das dienstälteste europäische Onlineportal rund um Apples Lifestyle-Produkte.
    Wir informieren täglich über Aktuelles und Interessantes aus der Welt rund um iPad, iPod, Mac und sonstige Dinge, die uns gefallen.
    Insgesamt haben wir 26315 Artikel in den vergangenen 6511 Tagen veröffentlicht. Und es werden täglich mehr.
    ifun.de — Love it or leave it   ·   Copyright © 2019 aketo GmbH   ·   Impressum   ·   Datenschutz   ·   Auf dieser Seite werben aketo GmbH Powered by SysEleven