Wirtschaft

Linientreue KI gewünscht China zwingt Tech-Giganten zur Zensur

00:00
Diese Audioversion wurde künstlich generiert. Mehr Infos
Ein Stichprobenverfahren teste die sogenannten Large Language Models (LLM) auf eine ganze Reihe von Fragen.

Ein Stichprobenverfahren teste die sogenannten Large Language Models (LLM) auf eine ganze Reihe von Fragen.

(Foto: picture alliance / newscom)

China will seine KI-Chatbots politisch auf Linie halten. Eine Stichprobe der mächtigen Internet-Regulierungsbehörde prüft, inwiefern die Technologien von Alibaba und Co die "sozialistischen Grundwerte" einhalten. Das Prozedere dauert lange - und stellt die Unternehmen vor eine Herausforderung.

Chinas mächtiger Internet-Regulierungsbehörde sind die KI-Sprachmodelle der großen chinesischen Tech-Unternehmen ein Dorn im Auge. Die Cyberspace Administration of China (CAC) zwingt deswegen unter anderem den Tiktok-Betreiber ByteDance und den E-Commerce-Gigant Alibaba an einer obligatorischen Überprüfung ihrer Modelle durch die Regierung teilzunehmen. Das berichtet die "Financial Times" unter Berufung auf mehrere Personen, die an dem Prozess beteiligt sind.

Demnach soll sichergestellt werden, dass die Systeme "die sozialistischen Grundwerte berücksichtigen". Ein Stichprobenverfahren teste die sogenannten Large Language Models (LLM) auf eine ganze Reihe von Fragen. Viele beziehen sich auf politisch heikle Themen und den Präsidenten Xi Jinping. Die CAC schickt ein spezielles Team in Unternehmen, um die KI-Sprachmodelle zu testen, berichtet ein Mitarbeiter eines in Hangzhou ansässigen KI-Unternehmens der "Financial Times". Den ersten Durchlauf habe das Unternehmen aus unerklärlichen Gründen nicht bestanden. "Es braucht eine gewisse Zeit, um zu spekulieren und sich anzupassen. Beim zweiten Mal haben wir bestanden, aber das ganze Verfahren hat Monate gedauert", berichtet die anonyme Quelle.

Durch das strenge Genehmigungsverfahren mussten Chinas KI-Firmen schnell lernen, wie sie ihre eigenen Sprachmodelle am besten zensieren können. "Unser Basismodell ist sehr, sehr ungehemmt, daher ist die Sicherheitsfilterung extrem wichtig", zitiert die Zeitung einen Mitarbeiter eines führenden KI-Startups in Peking. Das beginne mit dem Aussortieren von "problematischen" Informationen aus den Trainingsdaten und dem Anlegen einer Datenbank mit sensiblen Schlüsselwörtern. Im Februar dieses Jahres hatte China eine Anleitung für KI-Unternehmen veröffentlicht. Darin heißt es, dass Tausende sensible Schlüsselwörter und Fragen gesammelt und wöchentlich aktualisiert werden müssen.

Mehr zum Thema

Auf heikle Fragen, wie etwa zum Massaker auf dem Platz des Himmlischen Friedens, bekommen Nutzer von Chinas KI-Chatbots deswegen keine Antwort. Ihnen wird entweder geraten, eine andere Frage zu stellen oder die Reaktion ist: "Ich habe noch nicht gelernt, wie man diese Frage beantwortet. Ich werde weiter lernen, um Ihnen besser dienen zu können." KI-Experten zufolge stellt es Entwickler vor große Herausforderungen, den Text zu kontrollieren, den LLMs generieren. "Sie bauen deswegen eine weitere Stufe ein, um die Antwort in Echtzeit zu ersetzen", zitiert die "Financial Times" Huan Li, der den Chatbot Chatie.IO entwickelt hat. Das bedeutet: Eine beispielsweise nicht regimetreue Antwort wird zwar im ersten Schritt generiert und ausgespielt, verschwindet aber gleich kurz danach wieder.

Um seine Bevölkerung politisch auf Linie zu halten, hat Peking einen eigenen KI-Chatbot eingeführt, der auf einem neuen Modell der politischen Philosophie von Xi Jinping beruht. Nichtsdestotrotz will China laut der "Financial Times" vermeiden, dass die KI allen politischen Themen ausweicht. Die CAC habe die Anzahl an Fragen, die LLMs während der Tests ablehnen können, begrenzt, erzählt ein Mitarbeiter, der Tech-Unternehmen durch den Prozess hilft, der Zeitung. Die Anfang des Jahres vorgelegten Standards besagen, dass LLMs nicht mehr als fünf Prozent der ihnen gestellten Fragen ablehnen sollen.

Quelle: ntv.de, jki

Newsletter
Ich möchte gerne Nachrichten und redaktionelle Artikel von der n-tv Nachrichtenfernsehen GmbH per E-Mail erhalten.
Nicht mehr anzeigen