dbb magazin 7-8/2024

FRAUEN Künstliche Intelligenz Müll rein, Müll raus KI soll beim Recruiting, der Vergabe von Sozialleistungen oder der Erkennung von Betrugsfällen zum Einsatz kommen. Die Maschinen übernehmen dabei die Vorurteile der Menschen, häufig zulasten von Frauen. Wagen wir ein Experiment: 58 Prozent der Beschäftigten im öffentlichen Dienst sind Frauen. Wenn wir also eine KI bitten, ein Foto von Menschen zu generieren, die im öffentlichen Dienst arbeiten, müsste auf den Fotos eine ähnliche Quote zustande kommen. Beim Versuch mit verschiedenen Programmen zeigte allerdings nur knapp ein Drittel der Bilder Frauen (32 Prozent). Für die KI sind Beschäftigte im öffentlichen Dienst mit großer Mehrheit männlich. Und während die Männer in einer Vielzahl von Berufen und Umgebungen abgebildet wurden, wurden die Frauen in der Hälfte aller Fälle als Lehrerinnen abgebildet. Wie kann das sein? KI ist bei Weitem nicht neutral oder realitätsnah; sie gibt verzerrte Antworten. Denn das Material, mit dem die KI trainiert wird, enthält Vorurteile, persönliche Präferenzen und Abneigungen. Die KI überträgt diese Haltungen und Stereotype auf ihre Ergebnisse. In der Fachsprache heißt dieses Phänomen „Garbage in, Garbage out“ („Müll rein, Müll raus“). In der echten Welt hat diese einprogrammierte Voreingenommenheit fatale Folgen. Beispielsweise baute sich Amazon zwischen 2014 und 2017 eine KI, die die besten Bewerberinnen und Bewerber aussuchen sollte. Das Ergebnis: Frauen wurden stets niedriger eingestuft, allein das Wort „Frau“ (zum Beispiel in „Frauenfußball“) sorgte für eine schlechtere Bewertung. Diskriminierung als Soll-Zustand „Eine Software, die Frauen bei der Auswahl benachteiligt, ist nicht besser als Menschen, die Frauen bei der Auswahl benachteiligen“, sagt Milanie Kreutz, stellvertretende dbb bundesvorsitzende und Vorsitzende der dbb bundesfrauenvertretung. „Aufgrund von strukturellen Benachteiligungen haben es Frauen immer noch deutlich schwerer, in Führungspositionen zu kommen. Die KI erkennt diese Diskriminierung als Soll-Zustand.“ Wenn Entwickler ihrer KI beibringen, weniger zu diskriminieren, bekämpfe das zwar die Symptome, nicht aber die Ursache. „Schon das Datenset, aus dem die KI ihre Ergebnisse zieht, muss frei von Vorurteilen sein. Den Schub zur Gleichstellung in der KI-Welt schaffen wir nur ohne Diskriminierung in der echten Welt.“ Pia Sombetzki, Policy und Advocacy Managerin bei AlgorithmWatch, schlägt ebenfalls vorbeugende Maßnahmen vor: „Es sollte zum Beispiel eine KI-Folgenabschätzung durchgeführt werden, um Problemstellen zu identifizieren. So sieht es auch die neue EU-KI-Verordnung für öffentliche Stellen vor. Darüber hinaus sollte ein transparenter Umgang mit KI-Einsätzen gepflegt und in Kompetenzbildung im Umgang mit automatisierten Entscheidungssystemen investiert werden.“ AlgorithmWatch macht als Nichtregierungsorganisation (NGO) auf die Risiken von Algorithmen und KI aufmerksam. Große Potenziale, große Risiken Auch im öffentlichen Dienst soll KI in immer mehr Bereichen zum Einsatz kommen und Beschäftigte bei einfachen Verwaltungsprozessen entlasten. Doch auch hier kann eine voreingenommene KI für unnötiges Leid sorgen: Die Stadt Rotterdam hatte über Jahre eine Software eingesetzt, die per KI mögliche Fälle von Sozialhilfebetrug ausfindig machen sollte. Sie qualifizierte alleinerziehende Mütter als besonders hohes Risiko. Die Folge: Viele mussten sich einer behördlichen Untersuchung unterziehen oder verloren in ihrer ohnehin prekären finanziellen Lage ihre Sozialleistungen. Ähnliche Fälle gab es zuletzt in Australien, Michigan und weitere in den Niederlanden. Das Problem hatte die dbb frauen Chefin bereits im Juni bei den CESI Summer Days thematisiert: „So groß das Potenzial von KI ist, uns nach vorn zu bringen, so groß ist auch das Risiko, dass sie bestehende Vorurteile verstärkt. KI-Anwendungen müssen verantwortungsvoll und unter der Berücksichtigung möglicher Diskriminierung entwickelt und implementiert werden“, sagte Kreutz in Brüssel. Die EU hatte Anfang des Jahres den EU AI Act beschlossen, um KI besser zu regulieren. Sombetzki geht die Richtlinie nicht weit genug: „Die Kernproblemlage, dass von Diskriminierung Betroffene im Zweifelsfall nichts davon mitbekommen und die Diskriminierung schwerlich nachweisen könnten, löst die KIVerordnung nicht auf. Noch dazu sind Betroffene stark davon abhängig, ob eine nationale Beschwerdestelle, die ihre Fälle entgegennehmen soll, gut genug ausgestattet ist. Denn dies ist der einzige Beschwerdeweg, den die KI-Verordnung vorsieht.“ _ Wenn KI Klischees erschafft: Frau im öffentlichen Dienst = Lehrerin. © Erdacht mit KI 34 INTERN dbb magazin | Juli/August 2024

RkJQdWJsaXNoZXIy Mjc4MQ==