Kinderporno-Scanner

Editorial: Wanzen in unseren Taschen

Apple will Nutzer-Dateien auto­mati­siert auf ille­gale Inhalte scannen. Sicher­heits­for­scher zeigen, wie unsi­cher der dafür von Apple vorge­stellte Algo­rithmus NeuralHash ist.

Eine Gruppe hoch­karä­tiger Sicher­heits­experten hat sich in der aktu­ellen Diskus­sion um Apples Anti-Kinder­porno-Scanner zu Wort gemeldet. Unter dem Titel Wanzen in unseren Taschen: Die Risiken client­sei­tiger Raster­fahn­dung warnen sie ausdrück­lich vor den Gefahren der Tech­nologie. Zu den 14 Autoren gehören unter anderem Ronald L. Rivest, Whit­field Diffie und Bruce Schneier. Rivest dürfte vielen als das "R" im RSA-Algo­rithmus bekannt sein, Diffie wiederum als einer der beiden Erfinder des Diffie-Hell­mann-Schlüs­sel­aus­tau­sches. Real basiert die Sicher­heit von weit über 99 Prozent aller SSL-Verbin­dungen vom Online-Banking über Firmen-VPNs bis hin zum WhatsApp-Tele­fonat auf RSA und/oder Diffie-Hell­mann.

Der dritte genannte Autor, Bruce Schneier, ist der Erfinder des Blow­fish-Verschlüs­selungs-Algo­rithmus, dessen eben­falls von ihm entwi­ckelter Nach­folger Twofish es bis in die Endrunde des Wett­bewerbs zur Wahl des inter­natio­nalen Stan­dard-Verschlüs­selungs­algo­rithmus geschafft hatte. Am Ende gewann zwar Rijn­dael von Vincent Rijmen und Joan Daemen den Wett­bewerb. Twofish gilt aber als gleich­wer­tige Alter­native.

Alle die genannten Kryp­toex­perten und die weiteren Autoren des verlinkten Arti­kels arbeiten daran, dass unser aller Kommu­nika­tion im Digi­tal­zeit­alter sicher bleibt. Sie sehen daher client­sei­tige Scanner extrem kritisch: Zum einen ist die Tech­nologie unzu­ver­lässig, zum anderen kann sie für poli­tische Zwecke miss­braucht werden.

Falsch-posi­tive und falsch-nega­tive Bilder

Apple will mit dem Algorithmus NeuralHash Nutzer-Dateien auf illegale Inhalte scannen Apple will mit dem Algorithmus NeuralHash Nutzer-Dateien auf illegale Inhalte scannen
Bild: picture alliance/dpa/AP | Matthias Schrader
Dass es einfach ist, einen Scanner, der für die Suche nach ille­galen Kinder­pornos entwi­ckelt wurde, auch nach anderen, aus der Sicht eines Regimes jeweils ille­galen Inhalten zu suchen, hatte ich bereits erwähnt. Das perfide ist ja: Da der Besitz der Dateien, deren Hashes in der Such­liste stehen, illegal ist, können Daten­schützer nur schwer prüfen, ob der Filter noch für seinen ursprüng­lich vorge­sehenen Zweck oder schon für etwas ganz anderes verwendet wird.

Hinzu kommt nun nach Aussage der genannten Sicher­heits­for­scher, dass der Hash selber auch wenig verläss­lich ist: Es ist mit geringem Aufwand sowohl möglich, falsch-nega­tive als auch falsch-posi­tive Ergeb­nisse zu erzeugen. "Falsch negativ" bedeutet, dass Bilder, deren Hash auf der Sperr­liste steht, so verän­dert werden können, dass sich auch ihr Hash ändert, sie aber dennoch gleich aussehen. Die verän­derten Bilder werden dann von der Filter­soft­ware nicht mehr erkannt, obwohl sie ja weiterhin illegal sind. "Falsch positiv" bedeutet hingegen, dass man harm­lose Bilder erzeugt, die die glei­chen Hashes erzeugen wie die gesuchten.

Die Autoren fanden in einer öffent­lichen Bilder­daten­bank mit 14 Millionen Bildern bereits zwei Paare von Kolli­sionen, also eindeutig unter­schied­liche Bilder (eines zeigt beispiels­weise einen Hammer, das andere einen Wurm), die dennoch demselben Hash-Wert zuge­ordnet werden. Schlimmer noch: Bereits wenige Wochen nach der Veröf­fent­lichung von Apples NeuralHash wurden Algo­rithmen gefunden, die harm­lose Bilder so mani­pulieren können, dass sie (aus Sicht von NeuralHash, natür­lich nicht in echt) den gesuchten verbo­tenen Bildern glei­chen. Das kann von Protes­tern oder von Kinder­porno-Verbrei­tern genutzt werden, um virale Bilder (wie die berühmten süßen Katzen­bilder oder Hunde­welpen) zu erzeugen, die auf Face­book und Co. intensiv geteilt werden, dann aber die Scanner mit Tref­fern über­fluten.

Letzt­end­lich verglei­chen die Autoren der genannten wissen­schaft­lichen Arbeit die Situa­tion für client­sei­tige Anti-Kinder­porno-Scanner mit der der server­sei­tigen Anti-Spam-Scanner: Ein Teil des proble­mati­schen Mate­rials (Kinder­porno bzw. Viagra-Werbung) bleibt hängen, aber ein großer Teil geht eben dank Gegen­maß­nahmen der Täter uner­kannt durch. Zugleich landen legi­time E-Mails immer wieder in der Spam-Box. Und weil die client­sei­tigen Raster­fahnder so schlecht geeignet sind, ihren Zweck zu erfüllen, ist der damit verbun­dene Grund­rechts­ein­griff erst recht abzu­lehnen.

Weitere Edito­rials