Editorial: Geheime Cloud mit öffentlichem Nachschlüssel
Die nicht mehr private Cloud
teltarif.de
Apple macht unter den Betriebssystem-Herstellern den Anfang, weitere
Betriebssystemhersteller werden wahrscheinlich bald folgen,
Cloud-Anbieter machen es zum Teil bereits: Alle Inhalte, die von den
Benutzern künftig in ihren privaten iCloud-Speicherplatz geladen
werden, sollen dann
automatisch mit einer Kinderporno-Sperrliste
abgeglichen werden. Findet die Software, die auf dem iPhone des Nutzers
läuft, einen Treffer, wird die Datei als verdächtig markiert. Wird eine
nicht genannte Zahl an Treffern überschritten, wird automatisch eine
weitere Datei ins iCloud-Account hochgeladen, die die Verdachtsfälle
markiert und einen Nachschlüssel enthält, damit diese durch Mitarbeiter
von Apple geprüft werden können. Findet Apple dann tatsächlich
Kinderpornographie, wird der iCloud-Account gesperrt und eine Anzeige
an die Strafverfolgungsbehörden erstattet.
Im Detail wird der genaue Vorgang auf unterschiedlichen Medien unterschiedlich beschrieben. Nach einigen Medien reicht bereits ein Treffer, dass ein solcher Verdachtsbericht ausgelöst wird. Auch ist unklar, ob wirklich Apple selber die Prüfung der inkriminierten Dateien übernimmt. In Deutschland dürften sie dieses beispielsweise gar nicht. Allenfalls weitere algorithmische Prüfungen wären zulässig. Die eigentliche Sichtung der bereits getaggten Dateien darf dann nur durch die Strafverfolgungsbehörden erfolgen. Aus Sicht der Strafverfolger ist es wiederum wenig wünschenswert, dass Apple die Account-Nutzer warnt, indem es die Cloud-Accounts wegen "Verstoßes gegen die Nutzungsbedingungen" sperrt. Schließlich können gewarnte Täter noch Beweise vernichten.
Schwacher Beweis
Die nicht mehr private Cloud
teltarif.de
Für die Ermittlungsbehörden sind die Bilder in der Cloud nämlich nur ein
schwacher Beweis: Sie können da natürlich hingelangt sein, weil ein
Triebtäter absichtlich Missbrauchsbilder in die Cloud verschoben hat.
Aber ebenso können sie von einem besonders perfiden Erpressungstrojaner
stammen oder gar von einem (vermeintlichen) Freund. Erst jüngst ist
der Fall des Ex-Nationalspielers Christoph Metzelder durch die Medien
gegangen, der
drei Freundinnen Kinderpornographie
weitergeleitet hatte. Eine davon ging einige Tage später zur Polizei
und zeigte Metzelder an. Wenn sie nun ihr Handy so eingestellt gehabt
hätte, dass es auch App-Daten in die Cloud sichert, dann wäre bereits
vor ihrem Gang zur Polizei der Kinderporno-Alarm der Apple Cloud
losgegangen (wenn er denn schon aktiv gewesen wäre). Und das, obwohl sie
ja keine Straftat begangen hat, sich
insbesondere das Material nicht aktiv verschafft hat. (Einen Strafbefehl
über 500 Euro, entsprechend weniger Tagessätze, bekam sie nur, weil
sie recht lange mit der Anzeige gezögert hatte, und bis dahin das Material
nicht gelöscht hatte. Metzelder bekam hingegen volle 10 Monate
auf Bewährung).
Vielleicht will auch Apple mehr warnen ("macht nicht solchen Sch.... mit den iPhones") als tatsächlich ihre Nutzer anzeigen. Denn eigentlich kann Apple nicht daran gelegen sein, ihre Nutzer ans Messer zu liefern. Andererseits ist es Apple sicher auch nicht recht, dass über ihre Geräte schlimme Bilder geteilt werden.
Der Missbrauch geht leider weiter
Dadurch, der der Abgleich mit den Hashwerten aus der Kinderporno-Sperrliste auf den iPhones selber erfolgt, macht Apple die Sperrliste zwangsweise öffentlich. Die einschlägigen Täter werden das natürlich nutzen, um ihre Datenbanken und Bildergalerien entsprechend zu bereinigen. Das erhöht das Verlangen nach neuen Videos von neuem Missbrauch. Gegen Fälle wie im Missbrauchsfall Lügde und auch auf den Philippinen, bei denen Kinder live und auf Bestellung nach den Wünschen der zahlenden Zuschauer missbraucht werden, helfen Filterlisten mit Hashwerten sowieso nicht. Erst dann, wenn später Mitschnitte daraus in den einschlägigen Foren kursieren, können die Hashwerte jeweils ergänzt werden.
Die Privatsphäre gerät noch mehr unter die Räder
Fälle wie Lüdge, wo erst die zweite oder dritte Anzeige zu ernsthaften Ermittlungen gegen die Täter führte und dann auch noch über Weihnachten große Mengen des belastenden Bild- und Videomaterials (insgesamt 155 CDs) auf ungeklärte Weise verschwanden, weisen darauf hin, dass es im Bereich der Kinderpornographie im Internet eigentlich weniger an Indizien als vielmehr an Ermittlungen gegen die Täter mangelt. Regelmäßig werden im Darknet große Tauschformen für Kinderpornographie ausgehoben. Mit den Servern von "Boystown" wurden beispielsweise jüngst 400 000 Accounts sichergestellt. Auch, wenn die meisten davon Wegwerf-Accounts sein dürften, die Nutzer nur zum Lesen angelegt haben: Die 4 000 aktiven Accounts von "Boystown" mit zehn Postings und mehr enthalten jede Menge Hinweise auf aktive Täter.
Tatsächlich nimmt die Zahl der polizeilich erfassten Fälle von Verbreitung, Erwerb, Besitz und Herstellung von Kinderpornographie in den letzten Jahren rasant zu. Von 2016 bis 2020 hat sich die Zahl der Fälle von unter 6 000 auf über 18 000 mehr als verdreifacht. Zu vermuten ist dabei nicht, dass immer mehr Erwachsene eine Neigung zu sexuellem Kindesmissbrauch entwickeln, sondern dass das in diesem Bereich immer noch große Dunkelfeld auch ohne Apples Maßnahme dankenswerterweise zunehmend aufgeklärt wird.
Und hier setzt auch meine Kritik an: Wenn man ein Grundrecht - hier das auf informationelle Selbstbestimmung - zugunsten eines anderen Grundrechts - nämlich das der Kinder auf Leben und Gesundheit ohne Missbrauch und sexuelle Ausbeutung - aushöhlt, dann muss man immer abwägen, ob das eine geeignet ist, das andere zu erreichen. Mir liegt sehr daran, dass Kindesmissbrauch in Deutschland und weltweit noch intensiver ermittelt wird, dass Täter schneller gestoppt und Kinder besser geschützt werden. Ich fürchte nur, dass der Cloud-Sperrlisten-Abgleich in die falsche Richtung führt, weil er die beschränkte Arbeitskraft der Ermittler mit peripheren Fällen bindet, beispielsweise, wenn einschlägige Dateien als Spam verschickt werden. Zugleich ist zu befürchten, dass eine Tagging-Technologie, die zum Kampf gegen Kinderpornographie entwickelt worden ist, künftig auch für andere Zwecke missbraucht wird. Man muss nur die Hash-Liste updaten, dann überwacht man nicht nur Kinderpornographie, sondern auch von der Opposition verbreitete Bilder gewaltsamer Übergriffe der Regierung.