Chatkontrolle: Wie die EU die
Messenger-Verschlüsselung aushebeln will
04
FRAGE UND ANTWORT
Chatkontrolle: Wie die EU die
Messenger-Verschlüsselung aushebeln will
Schon bald will die EU-Kommission ihre
Pläne offiziell enthüllen. Wie das technisch gehen könnte, welche
Probleme das aufwirft und warum Kritiker schon jetzt auf die Barrikaden
gehen
Andreas Proschofsky
23. März 2022, 08:00
, 408 Postings
Einblick in die Chats aller Nutzer haben:
Das ist zwar nicht das offizielle Ziel der Chatkontrolle, Kritiker
befürchten aber, dass es darauf hinauslaufen könnte.
Foto: KIRILL KUDRYAVTSEV / AFP
Langsam wird es ernst: Bereits Ende März
will die EU-Kommission laut aktuellen Informationen den Entwurf für ein
schon im Vorfeld äußerst umstrittenes Gesetz vorstellen: die
Chatkontrolle. Deren postuliertes Ziel: die Bekämpfung des sexuellen
Missbrauchs von Kindern. Eine Zielsetzung, der wohl kaum jemand
widersprechen wird. Dass dies nun für solchen Wirbel sorgt, liegt daran,
wie man das erreichen will.
Wie aus einem im Vorjahr geleakten
früheren Entwurf hervorgeht, sollen Messenger wie Whatsapp oder Signal
sowie E-Mail-Anbieter dazu verpflichtet werden, nach sogenanntem Child
Sexual Abuse Material (CSAM) zu suchen und die Nutzer dann an die
Behörden zu melden.
Das würde einer Aushöhlung von effektiver
Verschlüsselung gleichkommen, warnen angesichts solcher Perspektiven
Kritikerinnen – samt brandgefährlicher Konsequenzen. Was damit gemeint
ist und wie das Ganze überhaupt technischen ablaufen könnte, soll im
Folgenden näher unter die Lupe genommen werden.
Frage: Wenn von "Aushebelung der
Verschlüsselung" die Rede ist – was ist damit gemeint? Ich dachte,
Ende-zu-Ende-Verschlüsselung verhindert, dass jemand anderer mitlesen
kann?
Antwort: Das tut sie auch – aber eben nur
auf dem Transportweg. Die Idee der EU setzt an ganz anderer Stelle an,
und zwar direkt am Smartphone der User. Dort ist ein Zugriff auf die
Inhalte natürlich möglich, und das lässt sich auch technisch nicht
verhindern. Immerhin muss die betreffende App selbst die Chats ja auch
den Nutzern am Bildschirm anzeigen, sie zwischenspeichern und
verarbeiten. Genau diese Position soll nun genutzt werden, die Apps
sollen also dazu verpflichtet werden, selbst nach problematischen
Inhalten zu suchen. "Client Side Scanning" nennt sich dieses Konzept.
Frage: Wie könnte das dann in der Praxis
aussehen?
Antwort: Mit vollständiger Sicherheit
lässt sich das noch nicht sagen. Immerhin sind die Pläne der EU derzeit
noch in Entwicklung. Insofern ist auch nicht ganz klar, wie man sich die
Umsetzung in der Praxis vorstellt. Die realistischste Variante ist aber,
dass man schlicht eine recht grobe Aufgabe – das regelmäßige Scannen
nach solchen Inhalten – stellt und den einzelnen Herstellern dann die
Implementation überlässt.
Frage: Gibt es zumindest schon eine Idee
davon, wie das technisch laufen könnte?
Antwort: Allerdings, und das ist Apple zu
"verdanken". Hat der iPhone-Hersteller doch Mitte des vergangenen Jahres
ein ebensolches System vorgestellt – und zwar ebenfalls unter den
Vorzeichen des Kampfs gegen sexuellen Missbrauch von Kindern. Sehr
vereinfacht sieht dieses so aus: Es wird eine Datenbank mit digitalen
Fingerabdrücken einschlägiger Materialien erstellt, die laufend auf dem
Smartphone aktuell gehalten wird. Diese wird dann zum Abgleich mit den
in den betreffenden Apps verschickten Bildern genutzt.
Frage: Was passiert jetzt, wenn es einen
"Treffer" gibt?
Antwort: Im System von Apple wäre es so
gewesen, dass nach einer gewissen Zahl an Übereinstimmungen zunächst
eine Meldung an Apple erfolgt – mit den betreffenden Bildern. Diese
sollten dann noch einmal geprüft werden und erst nachdem sich
herausstellt, dass es sich tatsächlich um solche Materialien handelt,
wäre dann eine Meldung an die Behörden erfolgt.
Frage: Wieso reden wir hier im
Konjunktiv? Also was ist mit dem Apple-System passiert?
Antwort: Es wurde nach massiven Protesten
von Nutzern und Privatsphärenexperten vorerst wieder eingestellt
beziehungsweise liegt es derzeit auf "Eis". Und "massiv" ist hier keine
Untertreibung, selbst Apple-Mitarbeiter liefen öffentlich Sturm gegen
die Pläne. NSA-Whistleblower Edward Snowden sprach gar davon, dass Apple
damit der "Privatsphäre den Krieg erklärt" habe.
Frage: Bevor wir zur Kritik kommen,
würden mich aber noch ein paar Details interessieren. Also etwa: Wer
liefert in so einem Modell überhaupt diese Datenbank mit digitalen
Fingerabdrücken? Wie kann ich diesen vertrauen?