Man nennt das Ding «künstliche Intelligenz», aber eigentlich ist alles noch ziemlich blöd, findet Andreas Panzeri, Redaktor beim Klein Report. Nicht nur werde er sofort nach der Rückkehr aus seinen Ferien in Kreta regelmässig bereits am ersten Arbeitstag wieder von computergesteuerten Anzeigen bombardiert, die ihn auf aktuelle Flugangebote in die Ägäis hinweisen. «Als ob ich unbeschränkt Ferien hätte.»
Tragischer ist für ihn aber ein Intelligenz-Blitzer, der letzte Woche in England über der natürlichen Hirnmasse der Menschen aufgeleuchtet hat. Ein Algorithmus von Facebook hat schwarze Menschen mit Affen verwechselt.
Bei Facebook kommt künstliche Intelligenz bei der Moderation von Inhalten zum Einsatz, etwa, um problematische Nachrichten und Bilder zu erkennen und zu blockieren.
Eine Sprecherin des Unternehmens bestätigte am Freitag das Problem, das bei einem Video des «Daily Mail» aufgetreten war. Facebook-Nutzer, die sich das Video mit dem Titel «Weisser Mann ruft Polizei wegen schwarzen Männern am Hafen» angesehen hatten, wurden anschliessend gefragt, ob sie «weiterhin Videos über Primaten sehen möchten», wie die «New York Times» anklagt.
Facebook sprach umgehend von einem «eindeutig inakzeptablen Fehler». Die verantwortliche Software sei sofort vom Netz genommen worden. «Wir entschuldigen uns bei jedem, der diese beleidigenden Empfehlungen gesehen hat.»
Facebook setzt auf verschiedene Formen von künstlicher Intelligenz, um die den Nutzern angezeigten Inhalte zu personalisieren. Dabei kommt auch Gesichtserkennungssoftware zum Einsatz. Bürgerrechtler weisen jedoch schon länger auf Probleme mit der Genauigkeit hin.