Partner von:
Anzeige

Sexistische Algorithmen: Amazons Künstliche Intelligenz zur Bewerber-Auswahl benachteiligte systematisch Frauen

Ein Algorithmus von Amazon soll weibliche Bewerber systematisch benachteiligt haben
Ein Algorithmus von Amazon soll weibliche Bewerber systematisch benachteiligt haben

Der E-Commerce-Riese Amazon wollte eigentlich ein System entwickeln, um unter Bewerbern mit Hilfe Künstlicher Intelligenz automatisch die besten zu finden. Der Algorithmus hatte aber einen großen Nachteil: Er benachteiligte Frauen systematisch, wie die Nachrichtenagentur Reuters aktuell berichtete. Das System brachte sich das Fehlverhalten dabei selbst bei.

Anzeige

“Jeder wollte den Heiligen Gral”, sagte eine mit dem Projekt vertraute Person von Amazon gegenüber Reuters. Die Nachrichtenagentur hat mit fünf anonymen Mitarbeitern über ein Recruiting-Tool von Amazon gesprochen, das den Bewerbungsprozess automatisieren sollte. Es war ein System in Entwicklung, das aus 100 Bewerbungen automatisch die fünf besten aussucht und damit die Auswahl neuer Mitarbeiter erheblich vereinfachen Sollte. Ein Team habe seit 2014 einen Algorithmus entwickelt, der die besten Talente für das US-Unternehmen ermitteln sollte. Ein gewaltiges Problem offenbarte sich dann 2015. Denn die automatische Bewerberprüfung arbeitete nicht geschlechtsneutral, sondern benachteiligte systematisch Frauen.

Traum vom automatisierten Bewerbungsprozess

Der Grund für das sexistische Verhalten: Amazon nutzte größtenteils Bewerbungen der vergangenen zehn Jahre als Lernmaterial für das System. Diese stammten überwiegend von Männern, so dass sich der Algorithmus das Fehlverhalten selbst antrainierte. Männliche Bewerber wurden in der Skala von eins bis fünf Sterne grundsätzlich besser eingestuft, weil die Eigenschaft “männlich” hoch bewertet wurde. Der Algorithmus schlussfolgerte also: Bewerbungen von Frauen bzw. mit einem weiblichen Bezug sind schlechter einzuordnen. Die Entwickler änderten das Verhalten des Systems zwar dahingehend, dass das Wort “Frau” neutral betrachtet wurde, allerdings half dies nicht wie gewünscht.

Anzeige

Das Unternehmen aus Seattle hat das Projekt Anfang 2017 gestoppt, weil es laut Aussagen der ehemaligen Mitarbeiter die Hoffnung daran verloren habe. Amazon Recruiter hätten zwar sehr wohl auf die Empfehlungen des Algorithmus geschaut, sich aber nie ausschließlich auf dessen Ranglisten verlassen. Auf Anfrage von Reuters wollte der US-Konzern die Probleme nicht kommentieren, betonte aber, dass das Tool nicht zur Bewertung von Bewerbern genutzt worden sei. Gleichwohl habe Amazon nicht bestritten, dass Recruiter die Empfehlungen angeschaut hätten, wie die Nachrichtenagentur berichtete.

Dass die Tech-Branche männerdominiert ist, zeigt eine Grafik von Statista. Danach sind Frauen in dem Bereich in den USA weiterhin unterrepräsentiert. Bei Amazon beträgt ihr Anteil 40 Prozent in der US-Belegschaft. Bei den Führungskräften machen Frauen ein Viertel aus, für Tech-Jobs gibt es keine Angaben. Ähnliche Verhältnisse sind bei anderen Großkonzernen wie Netflix, Facebook und Apple zu erkennen.

tb

Keine Neuigkeiten aus der Medien-Branche mehr verpassen: Abonnieren Sie kostenlos die MEEDIA-Newsletter und bleiben Sie über alle aktuellen Entwicklungen auf dem Laufenden.

Anzeige

Mehr zum Thema

Anzeige
Anzeige

Alle Kommentare

  1. Hahaha, die KI hat einfach nur eine Auswahlstrategie gefunden, die auch tatsächlich funktioniert weil Frauen einfach weniger leisten – und es ist ihr egal ob sie dafür von irgendwelchen Linksradikalen als “Frauenhasser” oder “Sexist” beschimpft wird.

    Zur Strafe wird der KI jetzt der Stecker gezogen und dicke, neurotische unterbeschäftigte Frauen aus der HR-Abteilung dürfen wieder die Bewerbungen sichten. Gerade nochmal die Kurve gekriegt.

      1. Meine Kindheit war sehr glücklich, danke der Nachfrage.

        Wenn linksgrüne Ideologen mich damals in die Finger bekommen hätten, dann würde ich nach einer ordentlichen Gehirnwäsche jetzt vielleicht auch irgendwelche Genderschwachsinns-Phrasen aufsagen. Aber da sind Sie zu spät dran.

  2. Kleine Korinthenkackerei:
    Es geht hier um KI bzw. neuronale Netze, der Begriff “Algorithmus” ist in diesem Fall eigentlich nicht zutreffend.
    Es ist auch fragwürdig, zu suggerieren, der Computer hätte sich das “selbst beigebracht” – die KI bzw. das neuronale Netz wurde vielmehr durch Amazon unbewusst so “trainiert”.

    Das Ganze ist aber ein schönes Beispiel dafür, warum man ja nicht glauben sollte, nur weil irgendeine Aufgabe (z.B. das Identifizieren von vermeintlichen “Hass-Postings” auf Twitter & Facebook) von einer “KI” durchgeführt wird, wären die Ergebnisse deshalb neutral und objektiv und ohne Vorurteile etc., weil das dann schliesslich ein unemotionaler, rein auf Logik basierender Computer übernimmt:

    Denn eine KI ist immer nur exakt so neutral und objektiv, wie die Daten, mit denen sie trainiert wurde. Und die stammen von Menschen, eine KI ererbt daher im Grunde die Vorurteile und negativen Eigenschaften desjenigen, der sie trainiert hat.

    1. “Denn eine KI ist immer nur exakt so neutral und objektiv, wie die Daten, mit denen sie trainiert wurde. Und die stammen von Menschen, eine KI ererbt daher im Grunde die Vorurteile und negativen Eigenschaften desjenigen, der sie trainiert hat.”

      Was ist, wenn die KI mit objektiven Leistungsdaten trainiert wurde? Kommt dann von Ihnen der radikalfeministische Einwand, dass das Leistungsprinzip nur ein Werkzeug des bösen Patriarchats ist, um Frauen zu diskriminieren?

  3. Himmel, kann man so eine Sache nicht einfach sachlich und neutral ohne Genderschwachsinn einerseits und ohne Machoschei…e andererseits diskutieren?

    Amazon hat mit ungeeigneten Daten trainiert, das dann aber gemerkt und korrigiert. Dass die Personaler dennoch auf das Ranking geschaut haben, ist eigentlich normal und sinnvoll, denn viele andere Merkmale wurden wohl hilfreich bewertet. Wenn dann ein Personaler weiß, dass die Geschlechterbewertung fragwürdig ist, hat er dieses Merkmal entweder nicht beachtet oder – wenn er ein Macho – so oder so Männer bevorzugt. Schließlich lag die Endauswahl bei ihm.
    Was ist daran also so erregenswert? Besser einen Fehler erkennen und in Zukunft vermeiden, als einen Fehler nicht erkennen. Oder glaubt hier jemand, dass die klassischen rein menschlichen Bewertungen von Bewerbern durch Personalverantwortliche per se fehlerfreier bzw. neutraler sind?

    1. “Himmel, kann man so eine Sache nicht einfach sachlich und neutral ohne Genderschwachsinn einerseits und ohne Machoschei…e andererseits diskutieren?”

      Ha, in welchem Jahr, glauben Sie, leben wir? 2010 vielleicht? Diese Zeiten sind schon lange vorbei.

      ” Oder glaubt hier jemand, dass die klassischen rein menschlichen Bewertungen von Bewerbern durch Personalverantwortliche per se fehlerfreier bzw. neutraler sind?”

      Fehlerfreier sicher nicht, aber dafür, nach entsprechender Indoktrination der Personalverantwortlichen “politisch korrekter”, was nicht das gleiche ist! Sie müssen sich schon entscheiden: Wenn die Daten zum Trainieren der KI “ungeeignet” waren, dann können gar keine Merkmale von der KI “hilfreich bewertet” worden sein. Garbage in, garbage out. Wo lag also das Problem? Bei ungeeigneten Daten, mit der die KI gefüttert wurde? Oder bei den Bewertungsheuristiken, die die KI entwickelt hat, und die Ihnen aus feministischer Sicht nicht gefallen?

      Ihre argumentativen Verrenkungen kommen daher, dass Sie der aktuell so hoch-gehypten KI explizit in den Programmcode schreiben müssen, dass sie Frauen positiv *diskriminieren* soll, wenn sie an dem von Ihnen aus ideologischen Grünen gewünschten politisch korrekten Auswahlergebnis von gleich kompetenten Frauen ankommen soll. Und das ist ein Eingeständnis, das Ihnen so sehr weh tut, dass Sie alles versuchen, um es zu vermeiden.

  4. das ki system hat richtig entschieden. idiotisch ist nur amazon mit seiner pc einstellung. frauen könnens nicht, das weiss man seit jahren in der mintausbildung. ausnahmen bestätigen die regel.

Die Kommentarfunktion für diesen Artikel ist deaktiviert.

Werben auf MEEDIA
 
Meedia

Meedia