Facebook sucht mit künstlicher Intelligenz nach Terrorinhalten
Bild: dpa
Facebook setzt künstliche Intelligenz ein, um
terroristische Inhalte auf seiner Plattform zu entdecken. Dabei gehe
es unter anderem darum, bereits bekannte Bilder und Videos beim
erneuten Hochladen zu stoppen, erklärte die zuständige
Facebook-Managerin Monika Bickert
in
einem Blogeintrag.
Facebook sucht mit künstlicher Intelligenz nach Terrorinhalten
Bild: dpa
Zugleich experimentiere das weltgrößte Online-Netzwerk aber auch mit
Software, die automatisch eine terroristische Einstellung in Texten
erkennen solle. Aktuell würden dafür Einträge ausgewertet, die wegen
der Unterstützung von Terror-Organisationen wie Isis oder Al-Kaida
bereits gelöscht wurden. Mit den Ergebnissen dieser Analyse wird ein
Algorithmus gefüttert, der gerade lerne, Posts mit solcher
Ausrichtung selbst zu erkennen. Neben Englisch laufe die Arbeit auch
in weiteren Sprachen, auch aus dem arabischen Raum, sagte Bickert.
"Wir wollen terroristische Inhalte sofort entdecken, bevor Menschen
in unserer Community sie zu sehen bekommen", betonte die Managerin,
die zuvor unter anderem Staatsanwältin in den USA war. Das gelinge
jetzt in einigen Fällen, sagte Brian Fishman, der sich beim
Online-Netzwerk mit Terrorbekämpfung beschäftigt. "Wir arbeiten
daran, diese Systeme schneller und verlässlicher zu machen." Zugleich
sei es ein Katz-und-Maus-Spiel: "Wenn wir verhindern, dass Terroristen
unsere Plattform erreichen, versuchen sie, neue Wege zu finden." Es
gebe "keinen Schalter, mit dem man Terrorismus einfach abstellen
kann".
Viele auffällige Einträge entdeckt Facebook selbst
Inzwischen werde mehr als die Hälfte der wegen Terror-Propaganda
gelöschten Facebook-Accounts vom Netzwerk selbst entdeckt, sagte
Bickert. Normalerweise ist Facebook auf Hinweise von Nutzern auf
illegale oder beim Netzwerk untersagte Inhalte angewiesen. Eine
Ausnahme ist Kinderpornografie, gegen die unter anderem mit
automatisierter Software gekämpft wird.
"Auch wenn unsere Software immer besser wird, hängt sehr viel auch
vom Kontext ab", schränkte Bickert ein. Wenn zum Beispiel in einem
Video Isis-Symbole zu sehen seien, könne es um Terror-Propaganda oder
auch aber einen Nachrichtenbeitrag handeln. Hier seien im Moment
Entscheidungen von Menschen unverzichtbar.
Die Erkenntnisse aus der Facebook-Plattform sollen auch verwendet
werden, um Profile mit terroristischen Inhalten bei anderen Diensten
des Online-Netzwerks wie Instagram und WhatsApp zu finden. Auch
deshalb sei es wichtig, dass einzelne Apps Daten an Facebook
weiterreichen könnten, hieß es in dem Blogeintrag. Facebooks Versuch,
Zugriff auf einige Informationen von WhatsApp-Nutzern zu bekommen,
wurde im vergangenen Jahr in Europa von Datenschützern blockiert.
Vor allem in Europa stieg zuletzt der politische Druck auf Facebook
und andere Online-Dienste, härter gegen terroristische Propaganda
vorzugehen. So erklärte die britische Premierministerin Theresa May
nach dem jüngsten Attentat auf der London Bridge, Extremismus finde
im Netz eine sichere Brutstätte - und die großen Internetunternehmen
ließen dies zu.
Unlängst sprach sich Facebook gegen das von Justizminister Heiko Maas (SPD)
geplante Gesetz gegen Hass und Hetze im Netz aus. Das Netzwerk befürchtet,
dass am Ende zur Sicherheit auch legitime Beiträge entfernt werden könnten.