Content:

Dienstag
12.11.2024

Digital

Algorithmen und Künstliche Intelligenz sind weder neutral noch objektiv... (Bild: zVg/ © EKF)

Algorithmen und Künstliche Intelligenz sind weder neutral noch objektiv... (Bild: zVg/ © EKF)

Künstliche Intelligenz (KI) ist alles andere als geschlechterneutral. 2018 sorgte zum Beispiel Amazon für Negativschlagzeilen, als ein KI­-Tool die Bewerbungen von Männern gegenüber jenen von Frauen bevorzugte. 

Auch Apples Kreditkarten-Funktion sorgte schon für Kritik: Bei der Software, die die Kreditwürdigkeit der Userinnen und User beurteilt, kamen Frauen schlechter weg als Männer.

Und am Flughafen werden trans Personen von den Bodyscannern öfters als Sicherheitsrisiko gemeldet, weil ihre Körper nicht den standardisierten Normen entsprechen.

Diese Beispiele stammen aus der aktuellen Ausgabe des Fachmagazins «Frauenfrage». Darin schreiben unter anderem die Basler Professorin für Geschlechterforschung Bianca Prietl oder die Berner Professorin für Data Engineering Mascha Kurpicz-Briki über den Gender Gap von Algorithmen, Chatbots und Künstlicher Intelligenz.

Algorithmen und Künstliche Intelligenz seien «weder neutral noch objektiv, sondern stützen sich auf vorhandene Daten, welche vielfach gesellschaftliche Ungleichheiten beinhalten und diese somit reproduzieren», schreiben im Editorial Bettina Fredrich, bis vor Kurzem noch Geschäftsleiterin der Eidgenössischen Kommission für Frauenfragen (EKF), und Caroline Honegger, wissenschaftliche Mitarbeiterin bei der EKF, die das Magazin herausgibt.

Aus Sicht der Gleichstellung stelle sich die Frage, welche technischen, politischen oder rechtlichen Anpassungen nötig sind, «um sicherzustellen, dass diese neue Technologie so eingesetzt wird, dass sie die Geschlechtergleichstellung fördert und ihr nicht zuwiderläuft».

Auch bei der sogenannten generativen KI, die Texte oder Bilder maschinell erzeugt, zeigt sich zum Beispiel, dass Geschlechterklischees unbedacht widergegeben werden: Der vor Kurzem lancierte «Berufsinfomat» des österreichischen Arbeitsmarktservice AMS, der auf ChatGPT basiert, sprach durch und durch stereotype Berufsempfehlungen aus. So empfahl er einer fiktiven 25-­jährigen Frau mit Matura unter anderem Tätigkeiten im Gesundheitsbereich oder in der Kreativbranche. 

Dagegen riet er einem 25-­jährigen Mann, ebenfalls mit Matura, sich unter die Techniker und Kaufmänner zu mischen.