Sie wollen das Nazi-Erbe Ihrer faschistischen Grossmutter zum Höchstpreis verscherbeln? Oder haben Sie Lust, möglichst viele Leute für Ihre rechtsextreme Demo via Facebook zu mobilisieren? Kein Problem: Facebook hilft Ihnen beim Auffinden dieser Zielgruppen. Die Klein Report-Kolumnistin und Medienexpertin Regula Stämpfli über die fehlenden Grundrechte und Demokratie bei Facebook.
Julia Angwin, Madeleine Varner und Ariana Tobin präsentierten am 14. September in «ProPublica» brisantes Material. Facebooks Algorithmen verlinken alles: So auch Menschen, deren Interesse «Judenhass», «wie man Juden verbrennt» oder der «Geschichte von Juden, die die Welt ruinierten» gilt, mit Unternehmen, politischen Parteien und anderen Gleichgesinnten. Das Team von «ProPublica» recherchierte im Selbsttest und gab 30 Dollar aus, um die erwähnten Gruppen als Targets für ihre «Produkte» zu definieren.
Das Forschungsteam nahm noch eine Gruppe hinzu, die Facebook automatisch vorschlug, nämlich: «Hitler did nothing wrong.» Nach der Definition der Zielgruppen konnte die Werbeanzeige, die in einem nicht mit dem Thema verwandten Post bestand, geschaltet werden. Die Werbeanzeigen wurden selbstverständlich geschaltet. Facebook reagierte nach Kontakt sofort und beseitigte die anti-semitischen Kategorien, die selbstverständlich automatisch generiert wurden (d.h. durch Algorithmen und nicht durch Programmiererinnen).
Facebook sucht nach wie vor nach Lösungen, wie den automatisierten Werbegruppen beizukommen wäre. Erst in den letzten paar Wochen wurde publik, dass mit nur 100 000 Dollar Werbung via Fake Accounts und via Russland über Facebook in die amerikanischen Präsidentschaftswahlen floss. Die ´Washington Post` redet von einer wahrhaftigen «Kremlin-linked troll farm.»
Zum erstenmal denken auch die Berichterstattenden darüber nach, was es bedeutet, wenn politische Analysen an Maschinen, die aufgrund diskriminierender Logiken programmiert wurden, abgegeben werden. So kreieren Maschinen politische und soziale Realitäten, die grundrechtswidrig und antidemokratisch sind.
Dabei sind die automatisierten antisemitischen Zielgruppen nicht einfach dem bedauerlichen Prozess des «algorithmischen Bias» (der diskriminierenden Algorithmen, Klischees und Vorurteile) geschuldet. Denn als das Team nach «Muslim haters» suchte, gab Facebook – anders als bei den antisemitischen Kategorien – keinen Vorschlag, keine Gruppe und keine Werbechancen an.
Somit ist klar, dass sich der «algorithmische Bias» bei Facebook offenbar nicht auf alle sogenannten Minderheiten gleich verteilt. Hannah Arendt meinte einmal: «Vor dem Antisemitismus ist man nur noch auf dem Mond sicher». Angesichts dieser Facebook-Story ist selbst dies nicht sicher.
Die Kolumne basiert auf dem Artikel von ProPublica. Die Kolumnistin dankt Adrienne Fichter, Herausgeberin der Smartphone-Demokratie, für den Link.