Content:

Samstag
12.05.2018

TV / Radio

Asylsuchender behördlich vermessen

Asylsuchender behördlich vermessen

Fröhlich verkündet SRF Online am 10. Mai 2018 unter «Jobs für Flüchtlinge», dass das Staatssekretariat für Migration (SEM) auf künstliche Intelligenz setzen wolle. Mit einem datenbasierten Algorithmus werden «Flüchtlinge» automatisch auf die Kantone verteilt. Und zwar auf solche, in denen die errechnete Chance auf einen Job am höchsten ist.

Für den Klein Report kommentiert die Politologin Regula Stämpfli das in der SRF-Sendung «10vor10» gefeierte Experiment am lebenden Menschen.

Im Pilotprojekt – so die offizielle Verlautbarung – «will die Schweizer Regierung 1000 Asylsuchende in die Kantone verteilen, in denen sie die besten Chancen auf einen Job haben». Interessant. Der Bund überlässt es also einer obskuren Formel, Politik, Demokratie und Rechtsstaat zu vollziehen.

«Den Algorithmus» dazu haben Forscher der ETH und «der amerikanischen Elite-Universität Stanford», so SRF, entwickelt. Auch spannend. Die gerechnete Politik des Bundes wird von einer schweizerischen und einer privaten US-amerikanischen Hochschule entwickelt. Ob diesbezüglich eine öffentliche Ausschreibung stattgefunden hat? Vielleicht war dies auch nicht nötig, aber die SRF-Journalisten hätten immerhin nachfragen dürfen.

Die Forscher hätten den Algorithmus «von zehntausenden Personen, die in der Vergangenheit aufgenommen worden sind» nach Alter, Geschlecht, Nationalität «und anderen Punkten» entwickelt: «Und errechnet, welche Personen in welchem Kanton am ehesten Arbeit gefunden haben.»

Hat sich hier irgendwer um den Datenschutz der betreffenden Personendaten gekümmert? Auch dies wurde selbstverständlich nicht gefragt.

Schön auch die Formulierung des betreffenden Professors «für Politikanalyse an der ETH Zürich»: «Für uns ist es wichtig, dass wir den Algorithmus im Feld testen können. Wir erwarten viele Erkenntnisse, die dann in die Verbesserung des Programms einfliessen.» Besser hätte niemand das Experiment am lebenden Menschen beschreiben können. Menschen dienen dem Programm und das Programm den Behörden.

Man muss sich nur einmal aus der Distanz das Ganze demokratietheoretisch anschauen: Da lässt der Bund «einen Algorithmus» aufgrund von Zehntausenden von personalisierten Daten und personalisierten Kriterien entwickeln und wendet diesen dann auf Asylsuchende an. Sind dabei alle rechtlichen Vorschriften, Datenschutz und Persönlichkeitsrechte eingehalten worden?

Der Algorithmus soll «im Feld getestet werden»: Heisst dies, eine Formel, deren Rechtsstaatlichkeit nicht gesichert wird und die von einer privaten US-amerikanischen Universität und der ETH entwickelt wurde, wird auf lebende Menschen angewandt? Wie steht es um deren Rechte?

Selbstverständlich werden die Verantwortlichen abwiegeln und so tun, als sei dies nichts anderes als das Zufallsprinzip. Was es nicht ist. Denn Künstliche Intelligenzen erkennen nicht nur Muster, sie legen sie lernend auch für die Zukunft fest. Der Algorithmus ist nicht objektiv, neutral, nein, er ist – wie wir aus x Studien wissen – rassistisch, sexistisch, bildungsdiskriminierend, alterssegmentierend et cetera.

Die Mathematikerin und ehemalige Wall-Street-Crack Cathy O ´Neil nennt ähnliche Vorgehen, wie es der Bund gewählt hat, einen «Angriff der Algorithmen» auf uns Menschen. Algorithmen manipulieren schon jetzt Wahlen, zerstören Berufschancen, gefährden unsere Gesundheit, erhöhen die Ungleichheit und diskriminieren nach Hautfarbe, Alter und Geschlecht. Also selbstverständlich nicht die Algorithmen, sondern die weissen Herren, die meist hinter den Berechnungen stecken.

Die Feuilleton-Diskurse liefern sich momentan fast täglich ein Gefecht, wer noch heftiger vor den Datenkraken aus dem Silicon Valley warnen will. Aber dass die schweizerische Eidgenossenschaft frisch fröhlich feiernd Menschen einer Erfindung von zwei Datenjongleuren unterwirft mit dem Argument, den «Asylsuchenden so die Jobsuche zu erleichtern», stört keinen Menschen.

Lieber empört man sich übers Silicon Valley, als dass das Monster vor der eigenen Haustüre entdeckt wird. Ziemlich zynisch, finden Sie nicht auch?

Wieso wurde dem laufenden arithmetischen Experiment an real lebenden Asylsuchenden kein Ethik-Komitee zur Seite gestellt? Wem gehört der sogenannte Algorithmus, den die Forscher an der ETH und in Standford anwenden wollen? Wie sind die Annahmen über die Jobs in den Kantonen errechnet worden? Aufgrund welcher Daten? Wurde der Datenschutz beachtet? Welche rechtsstaatlichen Grundlagen der Asylpolitik kommen bei der Anwendung «des Algorithmus» zur Geltung oder werden verletzt? Woher stammen die personalisierten Grunddaten? Und, und, und.

Alles Fragen, die der Bund beantworten muss. Alles Fragen, die die vierte Gewalt unbedingt stellen muss statt eine PR-Mitteilung zu verbreiten mit: «Algorithmus verteilt neu Asylbewerber auf Kantone.»

Die Entmündigung durch Automatismen findet längst nicht nur durch die bösen Datenkraken im Silicon Valley statt, sondern direkt bei uns. Wenn lebende Menschen nach einem Algorithmus verteilt werden, dann können ihnen in naher Zukunft auch Gesundheits-, Bildungs- und Kreditgarantien zu- oder abgesprochen werden. Ganz so, wie es der Algorithmus will, und nicht die schweizerische Verfassung. Das bisher gültige Zufallsprinzip der Verteilung war auch kein Königsweg, aber einer, der immerhin verfassungsrechtlich abgesichert war.

Die Story ist aber nicht nur demokratietheoretisch bedenklich, sondern zeigt die mangelnden Qualitäten des Qualitätsjournalismus auf: SRF verteilte sehr unkritisch die Behördenmitteilung als PR-Botschaft. Das geht so natürlich überhaupt nicht.