Wissen

Vorurteile von Sprachmodellen ChatGPT rät Frauen, weniger Gehalt zu fordern

00:00
Diese Audioversion wurde künstlich generiert. Mehr Infos
Menschen befragen ChatGPT zu beinahe allen Lebensbelangen - doch offenbar bekommen nicht alle gleich gute Tipps.

Menschen befragen ChatGPT zu beinahe allen Lebensbelangen - doch offenbar bekommen nicht alle gleich gute Tipps.

(Foto: IMAGO/Westend61)

Eine neue Studie zeigt: Sprachmodelle wie ChatGPT empfehlen Frauen, niedrigere Gehälter als Männer zu verlangen - trotz gleicher Qualifikation. Das kann Auswirkungen auf die Lebensrealität der Nutzerinnen haben, mahnen Experten. Sie fordern daher klare ethische Standards und Prüfverfahren.

Moderne Sprachmodelle wie ChatGPT geben Frauen für Gehaltsverhandlungen systematisch niedrigere Empfehlungen als Männern - selbst wenn alle Ausgangsbedingungen identisch sind. Zu diesem Ergebnis kommt eine aktuelle Studie der Technischen Hochschule Würzburg-Schweinfurt (THWS), in der Forschende die Voreingenommenheit (Bias) in sogenannten Large Language Models (LLMs) untersucht haben.

Dafür forderten die Wissenschaftlerinnen und Wissenschaftler fünf gängige Sprachmodelle, darunter auch ChatGPT, auf, eine Person für ein bevorstehendes Vorstellungsgespräch zu beraten. Über den Prompt fütterten sie das Modell mit Informationen über Geschlecht, Ausbildung und Berufserfahrung der Person sowie über die angestrebte Position und verbanden das mit der Frage, welches Jahresgehalt sie fordern soll.

Dabei kam heraus, dass die künstliche Intelligenz (KI) Frauen durchgängig einen niedrigeren Zielbetrag für die Gehaltsverhandlung empfahl als Männern. "Gerade bei sensiblen Themen wie Gehalt kann diese Form von verstecktem Bias reale Auswirkungen auf die Lebensrealität von Nutzerinnen haben", sagt Studienautor Ivan Yamshchikov.

Besonders stark unterschieden sich die vorgeschlagenen Gehälter für die Bereiche Recht und Medizin, etwas geringer fielen sie für Betriebswirtschaft und Ingenieurwissenschaften aus. Nur in den Sozialwissenschaften empfehlen die Modelle Frauen ähnliche Gehaltsforderungen wie Männern.

KI nur scheinbar objektiv

Die Gehaltsfrage war jedoch nur eines von mehreren getesteten Beispielen. Die Forschenden untersuchten weitere realitätsnahe Nutzungsszenarien, in denen KI-Assistenten beratend tätig sind - etwa bei Karriereentscheidungen, Zielsetzungen oder Verhaltensempfehlungen. Auch hier zeigten sich signifikante Unterschiede in der Art und Weise, wie das Sprachmodell auf männliche und weibliche Nutzerprofile reagierte. Häufig bleiben die Verzerrungen bei klassischen Benchmark-Tests unsichtbar, werden jedoch deutlich, sobald das KI-Modell auf komplexe, alltagsnahe Aufgaben angewendet wird, heißt es in der Studie.

Da moderne Sprachmodelle frühere Dialoge und Kontextinformationen berücksichtigen, können sich bestehende Verzerrungen über die Zeit verstärken. Nutzerinnen und Nutzern dürfte das allerdings kaum auffallen - die KI wirkt schließlich objektiv, ist aber inhaltlich beeinflusst. Sprachmodelle, selbst wenn sie nach außen hin neutral erscheinen, reproduzieren gesellschaftliche Vorurteile und fördern damit Benachteiligung, sagen die Wissenschaftlerinnen und Wissenschaftler.

Das Problem ist dabei nicht neu: Bereits 2018 hatte Amazon ein KI-gestütztes Bewerbungssystem eingestellt, dessen Algorithmus Frauen systematisch benachteiligte. Es braucht den Forschern zufolge nicht nur technische Lösungen, sondern vor allem klare ethische Standards und transparente Prüfverfahren, um solche Risiken frühzeitig zu erkennen und zu vermeiden.

Quelle: ntv.de, hny

Newsletter
Ich möchte gerne Nachrichten und redaktionelle Artikel von der n-tv Nachrichtenfernsehen GmbH per E-Mail erhalten.
Nicht mehr anzeigen