Diskriminierung programmiert Die KI plappert Vorurteile nach
12.03.2025, 18:08 Uhr Artikel anhören
"An vielen Stellen kommen voreingenommene Systeme zum Einsatz, in denen die weiße männliche Sicht überwiegt", sagt Politikwissenschaftlerin Mosene.
(Foto: Dieses Bild wurde mithilfe von KI generiert/ChatGPT)
Seit Februar 2025 gelten in der EU erstmals strengere Regeln für Künstliche Intelligenz. Der AI-Act soll "menschenzentrierte" und "vertrauenswürdige" KI fördern und unter anderem Diskriminierung verhindern. Denn obwohl KI neutral sein sollte, hat sie viele Stereotype längst übernommen.
Gleichheit ist ein großes Wort. Thomas Jefferson schrieb es 1776 in die Einleitung der US-amerikanischen Unabhängigkeitserklärung, es steht in Artikel 3 des deutschen Grundgesetzes, im Vorwort der Europäischen Menschenrechtskonvention - und seit August 2024 in der Präambel des AI-Act, dem ersten KI-Gesetz der Welt. Erwägungsgrund 28 mahnt zur Achtung europäischer Werte und warnt zugleich vor den Gefahren Künstlicher Intelligenz (KI): einer Technologie, die missbraucht und als Werkzeug für "manipulative, ausbeuterische und soziale Kontrollpraktiken" genutzt werden kann. Noch sind apokalyptische Szenarien wie die vollständige Überwachung durch autonome KI Teil dystopischer Zukunftsvisionen, doch ein Problem ist bereits deutlich: Künstliche Intelligenz diskriminiert.
"Es gibt eine Fülle an Beispielen", sagt Katharina Mosene. Die Politikwissenschaftlerin beschäftigt sich seit Jahren mit dem ethischen Einsatz von Algorithmen und erforscht Lösungsansätze zur Bekämpfung digitaler Gewalt. Die Benachteiligung beginne bei ganz alltäglichen Dingen. "Schon vor mehreren Jahren entdeckten Studien ein erhebliches Gefälle im Bereich der Gesichtserkennungssoftware", sagt Mosene. Diese funktioniere für Schwarze Menschen schlechter als für weiße, für Schwarze Frauen am schlechtesten. Ein weiteres Beispiel seien Sprachassistenten wie Siri oder Alexa. "Diese haben meist weibliche Stimmen - eine typische Fortschreibung klassischer Rollenbilder."
Untersuchungen ergaben außerdem, dass Frauen schlechter bezahlte Jobs angeboten werden, wenn Unternehmen KI-basierte Software bei der Personalauswahl einsetzen - so musste Amazon ein automatisches Bewertungssystem für Bewerbungen größtenteils einstampfen, nachdem festgestellt wurde, dass die KI Frauen systematisch benachteiligte. KI-gestützte Kreditbewertungssysteme neigen dazu, die Bonität weiblicher Kundschaft schlechter zu bewerten, und auch im medizinischen Bereich finden sich erhebliche Mängel: KI-Systeme stellen ungenaue Diagnosen, generell werden Krankheiten bei Frauen schlechter diagnostiziert.
"Generative KI ist ebenfalls ein Problem", sagt Mosene. In der Bild- und Texterstellung reproduzierten viele Systeme stereotype Darstellungen. Bittet man ChatGPT um das Bild einer Führungskraft, erscheint meist ein weißer Mann. Fragt man nach "doctor", "ingenieur" oder "lawyer" erscheinen ebenfalls weiße Männer. Sobald es um Pflege, Kinderbetreuung oder Pädagogik geht, erstellt ChatGPT vermehrt Bilder von weißen Frauen.
Vom Analogen ins Digitale
Dass Algorithmen weder neutral noch objektiv sind, ist laut Mosene nicht verwunderlich. "Algorithmen sind nicht mehr als unser Spiegelbild", so die Wissenschaftlerin. Das beginne beim Coden: Schon in der Anordnung der Nullen und Einsen stecke die erste menschliche Entscheidung. Darauf folgten die Trainingsdaten, welche oft verzerrt seien, weil sie bestehende gesellschaftliche Ungleichheiten widerspiegeln. "So wandern Diskriminierungen aus der analogen Welt unbewusst in den digitalen Raum, mit der Folge, dass marginalisierte Gruppen unterrepräsentiert, verzerrt oder stereotyp dargestellt werden."
Was fehlt, seien festgelegte Audits und Kontrollmechanismen. Ohne sie kämen an vielen Stellen weiterhin voreingenommene Systeme zum Einsatz, in denen die "weiße männliche Sicht überwiegt". "KI ist vermeintlich dafür da, Probleme zu lösen", sagt Mosene. "Die Frage ist aber immer, wer das Problem definiert."
Ansatz einer Regulierung
Erste einheitliche Regeln für den Einsatz von KI gibt es zumindest für den europäischen Raum. Der AI-Act soll Risiken minimieren und den Schutz von Grundrechten gewährleisten. Er unterscheidet Anwendungen in Risikokategorien und stellt sicher, dass hochriskante Systeme strengeren Auflagen unterliegen und entsprechend sanktioniert werden. Verboten wird zum Beispiel "Social Scoring", ein System, das anhand der Bewertung von Verhalten Privilegien gewährt. Auch die Deepfake-Pornografie, das heißt mithilfe von KI erzeugte, bildbasierte sexualisierte Gewalt, wird ins Visier genommen - ein Bereich, in dem vornehmlich Frauen betroffen sind. Problematisch bleibt Mosene zufolge jedoch, dass KI-Entwicklung global stattfindet. "Während Europa reguliert, setzen andere Länder - insbesondere die USA unter Donald Trump - auf einen unregulierten Markt." Dabei brauche es dringend einen weltweiten Dialog zwischen Wissenschaft, Zivilgesellschaft, Wirtschaft und Politik, der soziale und ethische Dimensionen einschließe. Nur so könne umfassend kontrolliert und vorzeitig korrigiert werden.

(Foto: RTL)
Menschen teilen Emotionen und Erfahrungen - unabhängig von Herkunft, Geschlecht oder Lebensweg. RTL Deutschland und ntv stellen vom 10. bis 16. März 2025 in der "Woche der Vielfalt" den Wert der Gemeinschaft in den Mittelpunkt und zeigen, dass uns mehr verbindet als trennt.
Da KI-Modelle "lernfähig" sind, sind Korrekturen auch im Nachhinein möglich - selbst private Nutzerinnen und Nutzer können die Antworten der KI bis zu einem gewissen Grad beeinflussen. "Wir können fehlerhafte Ergebnisse korrigieren, Feedback geben und gezielt andere Darstellungen anfordern", sagt Mosene. Außerdem könne man darauf achten, welche Daten man selbst bereitwillig zur Verfügung stellt - und welche Systeme man nutzt.
Anders als ChatGPT zeigt der Chatbot Perplexity auf die Bitte um das Bild einer Führungskraft eine Frau und einen schwarzen Mann. Auch ChatGPT gibt sich nach Kritik an der stereotypen Darstellung weißer Männer im Anzug einsichtig. "Sie haben recht, das ist eine klischeehafte Darstellung. Ich sollte alle Arten von Menschen einbeziehen - eine ausgewogene Mischung von Geschlechtern, ethnischen Hintergründen und Altersgruppen." Der Chatbot gelobt Besserung, Gleichheit sei immerhin "ein fundamentaler Wert". Auf die erneute Bitte um das Bild einer Führungskraft erscheint daraufhin: ein weißer Mann.
Quelle: ntv.de