Automatisierte Text-Scans im Anmarsch
EU will Chatkontrollen: Messenger sollen auf CSAM und Grooming prüfen müssen [Update]
Update: Der Vorschlag der EU Kommission ist inzwischen offiziell. Der Download des 135-seitigen Entwurfes steht euch hier zur Verfügung.
Schon vorab im Netz: Der Entwurf der EU-Kommission
Original-Eintrag: Ein Entwurf der Europäischen Kommission zur „Festlegung von Vorschriften zur Verhütung und Bekämpfung des sexuellen Missbrauchs von Kindern“ ist noch vor seiner offiziellen Vorstellung im Netz gelandet und formuliert schwarz auf weiß erstmals, was Datenschützer und Privacy-Aktivisten schon länger befürchten.
Prüfung von Bildern und Texten in Planung
Die Europäische Kommission plant die Implementierung umfangreicher Chat-Kontrollen, die die Anbieter von Messenger-Diensten und sozialen Netzen dazu bewegen sollen Kurznachrichten-Konversationen und Unterhaltungen auf Inhalte hin zu prüfen, die die sexualisierte Gewalt an Kindern darstellen.
So ist die Europäische Kommission zu dem Schluss gekommen, dass sich die bislang von den großen Plattformen unternommenen Anstrengungen diesbezüglich „als unzureichend erwiesen“ und bereits dazu geführt hätten, dass einzelne Mitgliedstaaten in der lokalen Gesetzgebung nachschärfen mussten. Vor diesem Hintergrund sehe man sich nun gezwungen einheitliche Vorschriften zu erarbeiten, die der Aufdeckung, Meldung und Beseitigung von sexualisierter Gewalt an Kindern im Netz dienen sollen.
Automatisierte Erkennung von Grooming
Und die vorgeschlagenen Regelwerke haben es in sich: So denkt die Europäische Kommission beispielsweise laut über die automatisierte Erkennung von „Grooming“ nach, ein Verhalten, das nach Angaben der deutschen Wikipedia die gezielte Kontaktaufnahme Erwachsener mit Minderjährigen in Missbrauchsabsicht bezeichnet.
Um entsprechende Anbahnungsversuche erkennen zu können, wäre die komplette Erfassung von Textnachrichten in Messenger-Diensten und auf Online-Plattformen notwendig.
Unsurprisingly the conclusion amongst the politicians is that „We need to spy on all content & activity in order to establish whether it is (C) CSAM, or (D) potential CSAM, and also we have to (E) monitor contact metadata to identify grooming“
Or spies. Whistleblowers. Whatever. pic.twitter.com/rUDba28RGN
— Alec Muffett (@AlecMuffett) May 10, 2022
Der Volltext des Entwurfes, der sich als PDF-Dokument hier aus dem Netz laden lässt, soll noch in diesem Monat offiziell präsentiert werden und dürfte eine ähnlich große öffentliche Debatte provozieren, wie die inzwischen auf Eis gelegten Vorstöße Apples, die Foto-Archive von iCloud-Nutzern auf bekannte Bilder hin zu prüfen, die sexualisierte Gewalt an Kindern darstellen.
- Rückzieher: Apple verschiebt Missbrauchs-Erkennung