Nach den Attentaten in London wächst der politische Druck auf die Sozialen Netzwerke weiter. Facebook geht in die Gegenoffensive und erklärt, wie das Unternehmen mithilfe künstlicher Intelligenz nach terroristischen Posts sucht.
Im Raster der Fahndung durch die lernfähigen Facebook-Rechner verfangen sich vor allem Fotos und Videos, die bereits einmal gelöscht worden sind und beim abermaligen Hochladen entdeckt werden, wie eine Facebook-Managerin im Blog schreibt.
Die Entwickler des Zuckerberg-Konzerns tüftelten an einem Terrorfilter herum. Sie durchkämmen die Posts, die wegen Zuspruch für terroristische Gruppierungen wie dem Islamischen Staat bereits gelöscht worden sind, nach typischen Textmustern.
Aufgrund der philologischen Analyse der Terrorismus-Diktion berechnen die Tüftler schliesslich einen Algorithmus, der die terrorismusverdächtigen Einträge von selbst erkennen und sperren lernen soll, heisst es in dem Firmenblog weiter.
Ganz ohne den Menschen geht es aber nicht, zum Beispiel in der Unterscheidung von Propaganda von Terrorgruppen oder Berichterstattung über Terrorgruppen liegen die Maschinen nicht immer richtig.
Gegen Kinderpornografie ist Facebook bisher bereits mit einer Fahndersoftware vorgegangen. In den meisten Fällen zählt das Netzwerk auf den Hinweis von Nutzern, um illegale Einträge respektive deren Accounts zu sperren.