ifun.de — Apple News seit 2001. 26 481 Artikel
Detaillierte Infos zur Siri-Privatsphäre

„Datenschutz und Grading“: Apples FAQ zur Siri-Auswertung auf Deutsch

24 Kommentare 24

Apple hat sich bereits vergangene Woche mit Hinblick auf die Diskussion um die Auswertung von Siri-Sprachaufzeichnungen entschuldigt. Der Hersteller gab zu Protokoll, dass eine Überprüfung ergeben habe, dass man „den eigenen Maßstäben nicht vollständig gerecht geworden“ sei und hat eine Reihe von Änderungen im Zusammenhang mit den Maßnahmen zur Verbesserung von Siri angekündigt. Ergänzend hat Apple auch ein FAQ-Dokument zu diesem Thema veröffentlicht, das zunächst nur in englischer Sprache, jetzt aber auch in einer deutschen Version verfügbar ist.

Sirigif

Beim Blick auf den Titel „Siri – Datenschutz und Grading“ darf man sich allerdings gleich mal fragen, warum Apple auch in der deutschen Fassung des Dokuments den im Deutschen keinesfalls üblichen englischen Begriff „Grading“ anstelle von „Auswerten“ oder dergleichen verwendet. Apple muss die aktuellen Stellungnahmen nur veröffentlichen, weil in der Vergangenheit nicht klar und offen kommuniziert wurde – eben deshalb wäre nun eine klare und unmissverständliche Begrifflichkeit wünschenswert.

Zum besseren Verständnis der von Apple veröffentlichten, teils verklausulierten Antworten sei auch nochmal daran erinnert, dass Nutzer in Zukunft aktiv zustimmen müssen, damit Apple Audioaufzeichnungen ihrer Siri-Interaktionen auswerten darf. Diese Aufgabe soll dann auch nicht mehr extern vergeben, sondern ausschließlich von Apple-Mitarbeitern übernommen werden. Fehlt die Zustimmung der Nutzer, so analysiert Apple die Qualität der Siri-Antworten ausschließlich mithilfe von automatisch erstellten Abschriften der Siri-Gespräche. Diese Protokolle sind Apple zufolge anonymisiert und werden spätestens nach einem halben Jahr gelöscht:

Ab einer zukünftigen Softwareversion im Herbst 2019 wird Apple das Audio Ihrer Siri-Anfragen standardmäßig nicht mehr speichern. Computergenerierte Protokolle Ihrer Audioanfragen können verwendet werden, um Siri zu verbessern. Diese Protokolle sind einer Zufallskennung, nicht Ihrer Apple-ID, für bis zu sechs Monate zugeordnet. Wenn Sie nicht möchten, dass Protokolle Ihrer Siri-Audioaufnahmen gespeichert werden, können Sie Siri und die Diktierfunktion in den Einstellungen deaktivieren.

Apple legt Wert auf die Feststellung, dass im Zusammenhang mit Siri-Anfragen stets eine zufällige Kennung anstatt der Apple-ID oder Telefonnummer des Kunden verwendet wird. Ein Prinzip, das Apple zufolge im Vergleich zur Konkurrenz einzigartig ist. Als zusätzliche Sicherheitsmaßnahme werde die Verknüpfung von Geräteinformationen und Zufallskennung stets nach sechs Monaten getrennt.

Wie schon gesagt: Apple hätte sich viel Ärger sparen können, wenn man die für eine Produktverbesserung ohne Frage auch nötige stichprobenartige Auswertung von Beginn an offen und „laut“ kommuniziert hätte. Spätestens als Amazon aus dem selben Grund massiv in der Kritik stand, hätten Apples Strategen gut daran getan, offensiv mit Informationen über die eigene Vorgehensweise nach außen zu gehen. Statt dessen hat Apple Stillschweigen bewahrt und sieht sich jetzt dazu genötigt, in den Rückwärtsgang zu schalten.

Wir wissen, dass Kunden über die jüngsten Berichte besorgt sind, in denen gemeldet wurde, dass Personen im Rahmen unseres Siri-Qualitätsauswertungsprozesses Siri-Audioaufnahmen angehört haben. Wir haben diese Bedenken sehr ernst genommen, die durch Menschen durchgeführte Auswertung von Siri-Anfragen sofort ausgesetzt und eine gründliche Überprüfung unserer Praktiken und Richtlinien begonnen.

Montag, 02. Sep 2019, 15:40 Uhr — Chris
24 Kommentare bisher. Dieser Unterhaltung fehlt Deine Stimme.
Rede mit!
  • Ich hatte es bisher so verstanden, dass die Mitschnitte keinem Gerät zugeordnet werden können. Aber in dem Text von Apple steht eindeutig, dass eine lange Zeichenfolge verwendet wird, die keine Rückschlüsse auf das Gerät zulässt, die aber über eine Datenbank klar dem Gerät zugeordnet wird.
    Das ist doch wieder extreme Irreführung des Kunden. Da gefällt mir das System von Amazon ja noch besser, bei dem ich nachvollziehen kann, was aufgezeichnet wurde.

    • Tja, dann hast Du das falsch verstanden.
      Mir ist das Siri-System lieber, als das „personalisierte“ von Amazon – zumal Amazon diese Daten auch für ihr „Kunden-Profiling“ nutzen können.

      • Da merkt man, wie Apple die Nutzer veräppelt. Die Wörter sind irreführend gewählt. Dann kommen noch ein paar Fanboys wie dv, denner oder markus und erzählen, dass Apple zwar sowas schreibt, aber jeder wissen müsse, dass es eigentlich ganz anders ist.
        Hier fragte letztens mal jemand, warum die community so verbittert ist. Ich glaube das ist ein Grund dafür.

      • Ich bin auch ein Apple Fan boy, und jetzt?

  • Dinge für die ich Siri nutze:

    „Siri, stelle einen Timer…“
    „Siri, Licht an“
    „Siri, Licht aus“
    „Siri, Wohnzimmer einschalten“
    „Siri, Szene Kino aktivieren“

    Und eventuell manchmal „Siri, du bist scheiße!“ Weil einfach mal wieder der Befehl nicht verstanden wurde.

    Das einzige das so ein „Analyst“ also erfahren würde ist, dass da eine anonyme Person ein Wohnzimmer hat, hin und wieder mal zum Kochen nen Timer stellt, Smarte Lampen besitzt und sich Abends mal nen Film anschaut.
    Ich verstehe dieses ganze Theater also nicht. Siri soll doch besser werden….ich kenne nach wie vor kaum jemanden, der Siri gerne nutzt…einfach weil sie immer noch schlechter ist als Google Assistent und Alexa.

    Wenn ich ohne Adblocker und tracking prevention nen Tag im Netz surfe, habe ich schon mehr von meinen Vorlieben und Gewohnheiten preisgegeben als jemals mit Siri.

    • Ähm, du weißt schon, dass Siri IMMER mithört? Sonst würde sie ja dein „Hey Siri“ verpennen? Ich liebe diese naive Gesellschaft. Aber, wenn du nichts zu verbergen hast, mach doch gleich einen 24/7 Podcast aus deinem Wohnzimmer heraus? Du kannst ihn ja anonymisieren. Aber wozu, schliesslich hast du ja nichts zu verbergen, oder?

      • Die hey Siri erkennung lauft tu 100% ohne das audio gespeichert oder an einen server geschickt wird. Erst wenn dein iPhone den hey Siri Befehl aufgenommen und als hey siri interpretiert hat fängt das iPhone an daten zu sammeln.

      • Das Hey Siri wird lokal erkannt. Es wird erst nach diesem Stichwort an Apple übertragen und ausgewertet. Davor nicht.

      • Stimmt: SIRI hört immer mit, protokolliert alles und schickt es übersetzt an die NSA *kopfschüttel*

    • Du verstehst zwei Sachen falsch. Das Ganze ist nicht wirklich anonymisiert. Die Zufallsid kann deinem Gerät zugeordnet werden und über mehrere zufällig aufgenommene Sprachaufzeichnungen lässt sich oft auch ein Rückschluss auf den Nutzer ziehen.
      Das zweite Problem ist, dass man den Nutzern vorgetäuscht hat, dass man dem Abhören widersprechen konnte.

    • Ach @DerZoelli, ich finde es immer wieder erhellend, wenn es Leute gibt, die sich offensichtlich immer noch nicht darüber im Klaren sind, dass jede, JA JEDE, Interaktion mit Deinem Handy, Deinem Homepod, Deinem SmartHome, Deinem smarten Licht oder sonstiges was man auch nur in irgendeiner kleinen Art und weise protokollieren kann, für irgendjemanden von Wert ist.
      Sei es in Sachen Werbung, Hacking, Analyse, und und und…
      Nur als kleines Beispiel: Es ist für viele Unternehmen absolut interessant, dass Du zum einen überhaupt zuhause bist, und zum anderen wann und wie lange. Nur als Denkanstoß!
      Ach ja und wie immer gilt.. klar hab ich nen Aluhut! Oder werte ich ggf. genau solche „anonymisierten Daten“ aus.. you never know!

  • Du hast es nicht verstanden! Es geht eben nicht (nur) und die Auswertung deiner ausgesprochenen „Siri-Befehle“. Sondern um das Lauschen grds.!!! Und hier werden Grundrechte gebrochen, mal eben so…!

    • Wieso? Sowas stellt sich der Nutzer freiwillig in die Wohnung. Genauso wie Kameras und Mikrofone an Handys, Monitoren, Heimautomation. Wer sich dann über fehlende Privatsphäre aufregt, den muss man nicht verstehen. Alle anderen haben so etwas nicht, oder nutzen einen anderen Umfang des Ganzen. Und wer sich vorher nicht informiert (im Informationszeitalter) ignoriert es einfach. Was es nicht besser macht.

    • Äh, genau das ist der Sinn dieser Gerätekategorie. Sie lauschen auf ihr Trigger-Wort und senden die gesprochene Frage an die Server zur Weiterverarbeitung. Anschließend wird eine Antwort zurückgesendet.

      • Naja, ob das Senden von Gesprächen zum Sinn des ganzen gehört sein mal dahingestellt. Tatsache ist, dass diese Dinge so Programmiert wurden. Und bis die Spracherkennung funktioniert, das Ganze als ein auf Jahre groß angelegter Betatest durchgeführt wird, bis man keine Menschen mehr braucht. Man bedenke alleine die Dialekte in Deutschland. Wie soll das sonst funktionieren? Mit künstlicher Intelligenz? Wie soll die Intelligent werden, ohne menschlichem Eingriff? Und künstliche, sich automatische Algorithmen waren in der Vergangenheit ein griff ins Klo. (Man bedenke solcher Versuche von Microsoft in der Vergangenheit).
        Also: mitdenken, informieren und aufwachen bitte!

  • Die Tatsache, dass Apple einzelne Mitschnitte mitgehört hat war ja in der Tat schon fast zu erwarten. Das das nicht maschinell, sondern von Menschen ausgewertet wurde ist der größte Skandal und eigentlich eine Blamage der KI Entwicklung. Alle sprechen sie von Automatisierungen und am Ende sitzt einer hinter einen Excel-Tabelle. Peinlich. Das sie das nicht kommuniziert haben ist mies. Ich habe ihnen vertraut was sie gnadenlos missbraucht haben. Viel schlimmer finde ich aber noch, dass sie irgendwelche Dritt-Firmen dafür beauftragt haben, die wer weiß was mit meinen Daten/Aufzeichnungen gemacht haben. Und kommt mir nicht mit auferlegten Richtlinien seitens Apple. Es gibt immer den einen unzufriedenen Mitarbeiter der sich ungerecht behandelt gefühlt hat, gekündigt hat und ein großes Datenpaket mitgenommen hat. Und bei Apple fällt dieses Datenpaket sicherlich auf einige mehrere TB an. Das ist eine Katastrophe.

    „Der Tagesspiegel fragte aber auch, was passiert, wenn sie eine Zeugin einer Straftat werden sollte. F. sagte, dass ihr das bislang nicht passiert ist. Ein Kollege habe aber einmal ein Gespräch gemeldet, bei dem es um einen Drogendeal gegangen sein soll. Ob dies weiterverfolgt wurde, wissen die Mitarbeiter jedoch nicht.“

    • …. und wo genau ist jetzt der Unterschied, ob Apple einer dritten Firma Richtlinien zur Auswertung auferlegt, die möglicherweise von einem unzufriedenen Mitarbeiter nicht beachtet werden oder ob Apple den eigenen Mitarbeitern Richtlinien auferlegt, die möglicherweise von einem unzufriedenen Mitarbeiter nicht beachtet werden?

  • Siri und die Diktierfunktionen sind auf meinem iPad seit Anbeginn an deaktiviert, da ich frühzeitig die Apple-AGB gelesen hatte, worin u. a. auch stand, daß die eingegebenen Siri-Befehle an Apple-Server weitergegeben werden können.

    Wie gut das war, zeigt sich jetzt.

    Die Aussage Apples, daß die Firma in Sachen Siri den eigenen Standards nicht gerecht worden sei, mag ja insoweit stimmen, als daß Apple noch nicht genug Siri-Daten -klammheimlich oder nicht- sammeln konnte: „honi soit, qui mal y pense“.

    Deswegen empfinde ich persönlich das Ganze, inklusive Entschuldigung, als reine Verarsche – ja, ausgeschrieben, das Kind nenne ich beim Namen.

  • Solange TIM nicht mit macht, zeigt Apple nicht genug Transparenz und Überzeugung in die eigenen Dienste. Er ist immer der Maßstab.

  • Ist doch ganz einfach. Siri komplett abschalten. Wer braucht Siri. Benutz wure Füsse und Hände. Um im Wohnzimmer Licht an zu machen. Brauche ich Siri nicht.
    Arme Welt.

  • Redet mit. Seid nett zueinander!

    Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

    ifun.de ist das dienstälteste europäische Onlineportal rund um Apples Lifestyle-Produkte.
    Wir informieren täglich über Aktuelles und Interessantes aus der Welt rund um iPad, iPod, Mac und sonstige Dinge, die uns gefallen.
    Insgesamt haben wir 26481 Artikel in den vergangenen 6537 Tagen veröffentlicht. Und es werden täglich mehr.
    ifun.de — Love it or leave it   ·   Copyright © 2019 aketo GmbH   ·   Impressum   ·   Datenschutz   ·   Auf dieser Seite werben aketo GmbH Powered by SysEleven