EU-Transparenzdatenbank

Online-Netzwerke löschen millionenfach kriminelle Inhalte

Aus einer neuen Daten­bank der EU geht hervor, welche Inhalte Face­book, Insta­gram oder TikTok löschen und einschränken. Doch eine Platt­form fällt durch eine beson­ders nied­rige Zahl auf.
Von dpa /

EU-Transparenzdatenbank zeigt: Online-Netzwerke löschen millionenfach EU-Transparenzdatenbank zeigt: Online-Netzwerke löschen millionenfach
picture alliance/dpa/dpa-Zentralbild
Kinder­por­nografie, Hass­rede oder Terror­pro­paganda: Mehr als 960 Millionen solcher oder anderer frag­wür­diger Inhalte haben Amazon, Face­book, YouTube, Insta­gram, Pinte­rest, TikTok und X (vormals Twitter) im vergan­genen halben Jahr gelöscht oder einge­schränkt. Das geht aus einer EU-Daten­bank hervor, die von der EU-Kommis­sion geschaffen wurde. Hinter­grund ist ein EU-Gesetz über digi­tale Dienste (Digital Service Act, DSA), wonach große Online-Platt­formen und Such­maschinen solche Inhalte schneller löschen und die Gründe dafür trans­parent machen müssen.

Konkret geben die Platt­formen in der Daten­bank an, welche Inhalte sie aus welchem Grund gelöscht oder in der Sicht­bar­keit einge­schränkt haben. Die Daten können nach Kate­gorien wie Hass­rede, Gewalt oder Porno­grafie gefil­tert und ausge­wertet werden. Insge­samt waren im April mehr als 16 Milli­arden Einträge von 16 großen Platt­formen in der Daten­bank zu finden. Neben großen sozialen Netz­werken müssen auch Anbieter wie Zalando, Booking.com sowie verschie­dene Google-Dienste gelöschte oder einge­schränkte Inhalte melden.

Platt­formen melden sehr unter­schied­lich

EU-Transparenzdatenbank zeigt: Online-Netzwerke löschen millionenfach EU-Transparenzdatenbank zeigt: Online-Netzwerke löschen millionenfach
picture alliance/dpa/dpa-Zentralbild
Dabei zeigt sich ein stark unter­schied­liches Melde­ver­halten der einzelnen Platt­formen. So entfallen mit mehr als 14 Milli­arden Meldungen mit Abstand die meisten auf Google Shop­ping. Das sind knapp 94 Prozent aller seit Ende September gemel­deten Beiträge. Bei der Such­maschine werde sehr umfas­send gemeldet, sagt Kommu­nika­tions­for­scher Jakob Ohme vom Weizen­baum Institut, der umfas­send zu Desin­for­mation forscht. "Die Kommis­sion hat schon gesagt, dass sie diesen Über­hang korri­gieren will."

Aber auch sonst zeigen sich Diffe­renzen. Bei der Social-Media-Platt­form TikTok wurden seit der Einfüh­rung der Melde­pflicht knapp 508 Millionen Beiträge gemeldet und mehr als 348 Millionen Beiträge gelöscht. Das sind fast 70 Prozent aller von TikTok gemel­deten Inhalte. Insta­gram meldete im ersten halben Jahr rund 19 Millionen Beiträge. Komplett gelöscht wurden davon etwas mehr als 6,6 Millionen, knapp 35 Prozent. Bei der Online-Platt­form X wurden im glei­chen Zeit­raum laut Daten­bank ledig­lich etwas mehr als 832.000 Inhalte gemeldet. Gelöscht wurden davon - Stand Anfang April - nur 24 Beiträge. Bei Face­book wurden bisher mehr als 148 Millionen Beiträge gemeldet. Davon wurde mit knapp 54 Millionen etwas mehr als ein Drittel gelöscht.

Spiel­raum bei Meldungen für Platt­formen

Für Ohme hat das abwei­chende Melde­ver­halten der Netz­werke mehrere Gründe: "Erstens: Platt­formen sind unter­schied­lich aktiv bei der Inhalts­mode­ration. Zwei­tens: Platt­formen nehmen die Melde­pflicht unter­schied­lich ernst." So befinde sich die Platt­form X gerade in einem Umbruch und sei "nicht dafür bekannt, sich an Regu­lie­rungen zu halten, die nicht auch strikt durch­gesetzt werden". TikTok wiederum versuche "eine gute Figur zu machen".

Verbes­serungs­bedarf sieht auch Digi­tali­sie­rung-Expertin Julia Kloiber, die für das Tech-Think-Tank Superrr Lab arbeitet: "Aktuell gibt es einiges an Spiel­raum, was Umfang, Genau­igkeit und die Inter­pre­tation der Vorgaben angeht." Dieser Spiel­raum erschwere die Vergleiche zwischen den Diensten. Zudem basiere die Daten­samm­lung nur auf Selbst­aus­künften der Platt­formen. "Die Unter­nehmen können in ihren Trans­parenz­berichten viel behaupten. Wichtig ist, dass es auch eine gründ­liche Prüfung der Angaben gibt."

EU-Kommis­sion unter­sucht Einhal­tung

Die gibt es laut EU-Kommis­sion. Es liege zwar in der Verant­wor­tung der Platt­formen, alle Entschei­dungen zur Inhalts­mode­ration unver­züg­lich zu über­mit­teln. Die EU-Kommis­sion könne bei dem Verdacht eines Verstoßes aber Zugang zu Daten bean­tragen, um die Einhal­tung der Trans­parenz­vor­schriften zu über­prüfen, hieß es auf Nach­frage von der Brüs­seler Behörde. Schwan­kungen bei gemel­deten Inhalten lägen an verschie­denen Stra­tegien und unter­schied­lichen Inhalten auf den Platt­formen.

Grund­sätz­lich laufen auf Grund­lage des DSA bereits Unter­suchungen, ob sich unter anderem X und Tiktok an die DSA-Vorschriften halten und genug gegen die Verbrei­tung ille­galer Inhalte tun. Eine Entschei­dung und damit auch mögliche Strafen gibt es aber bisher nicht. Sollte die Kommis­sion zu dem endgül­tigen Schluss kommen, dass Anbieter gegen den DSA verstoßen, können Geld­bußen von bis zu sechs Prozent des welt­weiten Jahres­umsatzes verhängt werden.

Wich­tige Entschei­dungen für Demo­kratie und Gesell­schaft

Kloiber bewertet die Daten­bank insge­samt als "wich­tigen Meilen­stein", der "Licht in die Black Box der online Dienste" bringt. "Wir haben in den letzten Jahren gesehen, welche Auswir­kungen die Mode­ration von Inhalten auf unsere Demo­kratie und Gesell­schaft hat - im Vorfeld von Wahlen muss sicher­gestellt werden, dass Desin­for­mation und gemel­dete Inhalte gut und schnell mode­riert werden", fordert Kloiber. Auch bei der anste­henden Euro­pawahl vom 6. bis 9. Juni 2024 ist die Beein­flus­sung auf Online-Platt­formen eine Gefahr, wie das Euro­päi­sche Parla­ment bereits im vergan­genen Jahr warnte.

Kloiber wünscht sich, "dass durch die Trans­parenz ein Wett­eifern zwischen den Platt­formen beginnt, welche Platt­form die höchsten Stan­dards und die beste Qualität bei der Mode­ration von Inhalten hat." Ohme hofft, "dass in einem Jahr schon eine genauere und auch besser durch­gesetzte Daten­lage exis­tiert, die weitere Analysen und Aussagen erlaubt".

Klar ist, dass die Daten­menge künftig weiter wachsen wird. Seit 17. Februar müssen alle Anbieter von Online-Platt­formen, Such­maschinen und Online-Diensten mit Ausnahme kleiner Unter­nehmen Daten über ihre Entschei­dungen zur Inhalts­mode­ration vorlegen. Noch fließen diese Daten nicht in die Trans­parenz­daten­bank. Doch auch diese sollen nach den Plänen der EU-Kommis­sion künftig auf der Website der DSA-Trans­parenz­daten­bank verfügbar sein, wenn die tech­nischen Voraus­set­zungen geschaffen seien, sagte ein Kommis­sions­spre­cher.

Zahl der Beschwerden in Deutsch­land verdop­pelt

Die Zahl der Beschwerden über krimi­nelle Inhalte im Internet in Deutsch­land ist im vergan­genen Jahr dras­tisch gestiegen. Die Beschwer­destelle des Verbands der Inter­net­wirt­schaft Eco verzeich­nete im Jahr 2023 mit 17.493 Fällen fast doppelt so viele berech­tigte Beschwerden wie im Jahr zuvor. In vier von fünf Fällen (78,9 Prozent) ging es dabei um sexu­elle Gewalt und Grenz­ver­let­zungen gegen Kinder oder Jugend­liche. Jeder neunte Fall (11,7 Prozent) hatte demnach mit anderen sexu­ellen Grenz­ver­let­zungen zu tun, die nach den einschlä­gigen Gesetzen als rechts­widrig einge­stuft wurden.

Die Zunahme von Beschwerden, insbe­son­dere im Bereich der sexu­ellen Gewalt und Grenz­ver­let­zungen gegen Minder­jäh­rige, sei erschüt­ternd, sagte die Leiterin der Eco-Beschwer­destelle, Alex­andra Koch-Skiba. "Doch sie verdeut­licht auch, dass unsere Gesell­schaft wachsam ist und sich klar gegen ille­gale Inhalte posi­tio­niert."

Die Zahlen aus dem Jahres­bericht verdeut­lichten eindrück­lich den Erfolg der Bemü­hungen im Kampf gegen rechts­wid­rige Inhalte: Trotz des deut­lichen Anstiegs der Beschwerden habe man bei 98,4 Prozent der monierten Webin­halte welt­weit eine Löschung erwirken können.

Löschung besser als Internet-Sperren

"In Deutsch­land gehos­tete Webseiten mit als Kinder­por­nografie klas­sifi­zierten Inhalten wurden dabei zu 100 Prozent und inner­halb von durch­schnitt­lich knapp zwei Tagen entfernt." Welt­weit seien die krimi­nellen Inhalte inner­halb von durch­schnitt­lich rund sechs Tagen gelöscht worden bei einer Erfolgs­quote von 98,87 Prozent.

Der Verband betonte, es sei besser, ille­gale Inhalte im Rahmen einer Selbst­regu­lie­rung zu löschen, statt sie mit einer Inter­net­zensur zu sperren. "Im Kampf gegen verbo­tene Webin­halte ist deren Löschung das zentrale und wirk­samste Mittel. Die Methode ist nicht nur schnell, sondern auch effektiv und nach­haltig", heißt es in dem Jahres­bericht.

Unter den berech­tigten Beschwerden betrafen fast 900 Fälle verfas­sungs­feind­liche Inhalte. Hierzu zählen unter anderem Volks­ver­het­zung sowie das Verbreiten von Propa­gan­damit­teln und Verwenden von Kenn­zei­chen verfas­sungs­wid­riger Orga­nisa­tionen.

Seit kurzem hat die EU neue Waffen im Kampf gegen die Macht von Tech-Konzernen. Nun zeigt die EU-Kommis­sion, dass sie bereit ist, diese einzu­setzen. Gezielt wird auf US-Konzern­riesen.

Mehr zum Thema Internet-Kriminalität