Detaillierte Infos zur Siri-Privatsphäre
„Datenschutz und Grading“: Apples FAQ zur Siri-Auswertung auf Deutsch
Apple hat sich bereits vergangene Woche mit Hinblick auf die Diskussion um die Auswertung von Siri-Sprachaufzeichnungen entschuldigt. Der Hersteller gab zu Protokoll, dass eine Überprüfung ergeben habe, dass man „den eigenen Maßstäben nicht vollständig gerecht geworden“ sei und hat eine Reihe von Änderungen im Zusammenhang mit den Maßnahmen zur Verbesserung von Siri angekündigt. Ergänzend hat Apple auch ein FAQ-Dokument zu diesem Thema veröffentlicht, das zunächst nur in englischer Sprache, jetzt aber auch in einer deutschen Version verfügbar ist.
Beim Blick auf den Titel „Siri – Datenschutz und Grading“ darf man sich allerdings gleich mal fragen, warum Apple auch in der deutschen Fassung des Dokuments den im Deutschen keinesfalls üblichen englischen Begriff „Grading“ anstelle von „Auswerten“ oder dergleichen verwendet. Apple muss die aktuellen Stellungnahmen nur veröffentlichen, weil in der Vergangenheit nicht klar und offen kommuniziert wurde – eben deshalb wäre nun eine klare und unmissverständliche Begrifflichkeit wünschenswert.
Zum besseren Verständnis der von Apple veröffentlichten, teils verklausulierten Antworten sei auch nochmal daran erinnert, dass Nutzer in Zukunft aktiv zustimmen müssen, damit Apple Audioaufzeichnungen ihrer Siri-Interaktionen auswerten darf. Diese Aufgabe soll dann auch nicht mehr extern vergeben, sondern ausschließlich von Apple-Mitarbeitern übernommen werden. Fehlt die Zustimmung der Nutzer, so analysiert Apple die Qualität der Siri-Antworten ausschließlich mithilfe von automatisch erstellten Abschriften der Siri-Gespräche. Diese Protokolle sind Apple zufolge anonymisiert und werden spätestens nach einem halben Jahr gelöscht:
Ab einer zukünftigen Softwareversion im Herbst 2019 wird Apple das Audio Ihrer Siri-Anfragen standardmäßig nicht mehr speichern. Computergenerierte Protokolle Ihrer Audioanfragen können verwendet werden, um Siri zu verbessern. Diese Protokolle sind einer Zufallskennung, nicht Ihrer Apple-ID, für bis zu sechs Monate zugeordnet. Wenn Sie nicht möchten, dass Protokolle Ihrer Siri-Audioaufnahmen gespeichert werden, können Sie Siri und die Diktierfunktion in den Einstellungen deaktivieren.
Apple legt Wert auf die Feststellung, dass im Zusammenhang mit Siri-Anfragen stets eine zufällige Kennung anstatt der Apple-ID oder Telefonnummer des Kunden verwendet wird. Ein Prinzip, das Apple zufolge im Vergleich zur Konkurrenz einzigartig ist. Als zusätzliche Sicherheitsmaßnahme werde die Verknüpfung von Geräteinformationen und Zufallskennung stets nach sechs Monaten getrennt.
Wie schon gesagt: Apple hätte sich viel Ärger sparen können, wenn man die für eine Produktverbesserung ohne Frage auch nötige stichprobenartige Auswertung von Beginn an offen und „laut“ kommuniziert hätte. Spätestens als Amazon aus dem selben Grund massiv in der Kritik stand, hätten Apples Strategen gut daran getan, offensiv mit Informationen über die eigene Vorgehensweise nach außen zu gehen. Statt dessen hat Apple Stillschweigen bewahrt und sieht sich jetzt dazu genötigt, in den Rückwärtsgang zu schalten.
Wir wissen, dass Kunden über die jüngsten Berichte besorgt sind, in denen gemeldet wurde, dass Personen im Rahmen unseres Siri-Qualitätsauswertungsprozesses Siri-Audioaufnahmen angehört haben. Wir haben diese Bedenken sehr ernst genommen, die durch Menschen durchgeführte Auswertung von Siri-Anfragen sofort ausgesetzt und eine gründliche Überprüfung unserer Praktiken und Richtlinien begonnen.