Themenspezial: Verbraucher & Service Apple

Editorial: Geheime Cloud mit öffentlichem Nachschlüssel

Abwä­gung der Grund­rechte: Schutz der Privat­sphäre einer­seits, Schutz der Kinder ande­rer­seits. Was will die Gesell­schaft?
Von

Cloud Die nicht mehr private Cloud
teltarif.de
Apple macht unter den Betriebs­system-Herstel­lern den Anfang, weitere Betriebs­sys­tem­her­steller werden wahr­schein­lich bald folgen, Cloud-Anbieter machen es zum Teil bereits: Alle Inhalte, die von den Benut­zern künftig in ihren privaten iCloud-Spei­cher­platz geladen werden, sollen dann auto­matisch mit einer Kinder­porno-Sperr­liste abge­gli­chen werden. Findet die Soft­ware, die auf dem iPhone des Nutzers läuft, einen Treffer, wird die Datei als verdächtig markiert. Wird eine nicht genannte Zahl an Tref­fern über­schritten, wird auto­matisch eine weitere Datei ins iCloud-Account hoch­geladen, die die Verdachts­fälle markiert und einen Nach­schlüssel enthält, damit diese durch Mitar­beiter von Apple geprüft werden können. Findet Apple dann tatsäch­lich Kinder­por­nogra­phie, wird der iCloud-Account gesperrt und eine Anzeige an die Straf­ver­fol­gungs­behörden erstattet.

Im Detail wird der genaue Vorgang auf unter­schied­lichen Medien unter­schied­lich beschrieben. Nach einigen Medien reicht bereits ein Treffer, dass ein solcher Verdachts­bericht ausge­löst wird. Auch ist unklar, ob wirk­lich Apple selber die Prüfung der inkri­minierten Dateien über­nimmt. In Deutsch­land dürften sie dieses beispiels­weise gar nicht. Allen­falls weitere algo­rith­mische Prüfungen wären zulässig. Die eigent­liche Sich­tung der bereits getaggten Dateien darf dann nur durch die Straf­ver­fol­gungs­behörden erfolgen. Aus Sicht der Straf­ver­folger ist es wiederum wenig wünschens­wert, dass Apple die Account-Nutzer warnt, indem es die Cloud-Accounts wegen "Verstoßes gegen die Nutzungs­bedin­gungen" sperrt. Schließ­lich können gewarnte Täter noch Beweise vernichten.

Schwa­cher Beweis

Cloud Die nicht mehr private Cloud
teltarif.de
Für die Ermitt­lungs­behörden sind die Bilder in der Cloud nämlich nur ein schwa­cher Beweis: Sie können da natür­lich hinge­langt sein, weil ein Trieb­täter absicht­lich Miss­brauchs­bilder in die Cloud verschoben hat. Aber ebenso können sie von einem beson­ders perfiden Erpres­sungs­tro­janer stammen oder gar von einem (vermeint­lichen) Freund. Erst jüngst ist der Fall des Ex-Natio­nal­spie­lers Chris­toph Metzelder durch die Medien gegangen, der drei Freun­dinnen Kinder­por­nogra­phie weiter­geleitet hatte. Eine davon ging einige Tage später zur Polizei und zeigte Metzelder an. Wenn sie nun ihr Handy so einge­stellt gehabt hätte, dass es auch App-Daten in die Cloud sichert, dann wäre bereits vor ihrem Gang zur Polizei der Kinder­porno-Alarm der Apple Cloud losge­gangen (wenn er denn schon aktiv gewesen wäre). Und das, obwohl sie ja keine Straftat begangen hat, sich insbe­son­dere das Mate­rial nicht aktiv verschafft hat. (Einen Straf­befehl über 500 Euro, entspre­chend weniger Tages­sätze, bekam sie nur, weil sie recht lange mit der Anzeige gezö­gert hatte, und bis dahin das Mate­rial nicht gelöscht hatte. Metzelder bekam hingegen volle 10 Monate auf Bewäh­rung).

Viel­leicht will auch Apple mehr warnen ("macht nicht solchen Sch.... mit den iPhones") als tatsäch­lich ihre Nutzer anzeigen. Denn eigent­lich kann Apple nicht daran gelegen sein, ihre Nutzer ans Messer zu liefern. Ande­rer­seits ist es Apple sicher auch nicht recht, dass über ihre Geräte schlimme Bilder geteilt werden.

Der Miss­brauch geht leider weiter

Dadurch, der der Abgleich mit den Hashwerten aus der Kinder­porno-Sperr­liste auf den iPhones selber erfolgt, macht Apple die Sperr­liste zwangs­weise öffent­lich. Die einschlä­gigen Täter werden das natür­lich nutzen, um ihre Daten­banken und Bilder­gale­rien entspre­chend zu berei­nigen. Das erhöht das Verlangen nach neuen Videos von neuem Miss­brauch. Gegen Fälle wie im Miss­brauchs­fall Lügde und auch auf den Phil­ippinen, bei denen Kinder live und auf Bestel­lung nach den Wünschen der zahlenden Zuschauer miss­braucht werden, helfen Filter­listen mit Hashwerten sowieso nicht. Erst dann, wenn später Mitschnitte daraus in den einschlä­gigen Foren kursieren, können die Hashwerte jeweils ergänzt werden.

Die Privat­sphäre gerät noch mehr unter die Räder

Fälle wie Lüdge, wo erst die zweite oder dritte Anzeige zu ernst­haften Ermitt­lungen gegen die Täter führte und dann auch noch über Weih­nachten große Mengen des belas­tenden Bild- und Video­mate­rials (insge­samt 155 CDs) auf unge­klärte Weise verschwanden, weisen darauf hin, dass es im Bereich der Kinder­por­nogra­phie im Internet eigent­lich weniger an Indi­zien als viel­mehr an Ermitt­lungen gegen die Täter mangelt. Regel­mäßig werden im Darknet große Tausch­formen für Kinder­por­nogra­phie ausge­hoben. Mit den Servern von "Boystown" wurden beispiels­weise jüngst 400 000 Accounts sicher­gestellt. Auch, wenn die meisten davon Wegwerf-Accounts sein dürften, die Nutzer nur zum Lesen ange­legt haben: Die 4 000 aktiven Accounts von "Boystown" mit zehn Postings und mehr enthalten jede Menge Hinweise auf aktive Täter.

Tatsäch­lich nimmt die Zahl der poli­zei­lich erfassten Fälle von Verbrei­tung, Erwerb, Besitz und Herstel­lung von Kinder­por­nogra­phie in den letzten Jahren rasant zu. Von 2016 bis 2020 hat sich die Zahl der Fälle von unter 6 000 auf über 18 000 mehr als verdrei­facht. Zu vermuten ist dabei nicht, dass immer mehr Erwach­sene eine Neigung zu sexu­ellem Kindes­miss­brauch entwi­ckeln, sondern dass das in diesem Bereich immer noch große Dunkel­feld auch ohne Apples Maßnahme dankens­wer­ter­weise zuneh­mend aufge­klärt wird.

Und hier setzt auch meine Kritik an: Wenn man ein Grund­recht - hier das auf infor­matio­nelle Selbst­bestim­mung - zugunsten eines anderen Grund­rechts - nämlich das der Kinder auf Leben und Gesund­heit ohne Miss­brauch und sexu­elle Ausbeu­tung - aushöhlt, dann muss man immer abwägen, ob das eine geeignet ist, das andere zu errei­chen. Mir liegt sehr daran, dass Kindes­miss­brauch in Deutsch­land und welt­weit noch inten­siver ermit­telt wird, dass Täter schneller gestoppt und Kinder besser geschützt werden. Ich fürchte nur, dass der Cloud-Sperr­listen-Abgleich in die falsche Rich­tung führt, weil er die beschränkte Arbeits­kraft der Ermittler mit peri­pheren Fällen bindet, beispiels­weise, wenn einschlä­gige Dateien als Spam verschickt werden. Zugleich ist zu befürchten, dass eine Tagging-Tech­nologie, die zum Kampf gegen Kinder­por­nogra­phie entwi­ckelt worden ist, künftig auch für andere Zwecke miss­braucht wird. Man muss nur die Hash-Liste updaten, dann über­wacht man nicht nur Kinder­por­nogra­phie, sondern auch von der Oppo­sition verbrei­tete Bilder gewalt­samer Über­griffe der Regie­rung.

Weitere Edito­rials