Wissen

Forscher fordern strenge Regeln Künstliche Intelligenz lernt, Menschen zu täuschen

00:00
Diese Audioversion wurde künstlich generiert. Mehr Infos
KI, so fürchten die Forscher, könnte beispielsweise demokratische Wahlen manipulieren.

KI, so fürchten die Forscher, könnte beispielsweise demokratische Wahlen manipulieren.

(Foto: picture alliance/dpa)

Dass Künstliche Intelligenz für Fake News missbraucht werden kann und Chatbots wie Chat-GPT Fehler machen, ist bekannt. Forscher zeigen nun, dass KI-Systeme auch gezielt täuschen, selbst wenn sie darauf nicht trainiert wurden. Die Wissenschaftler fordern, schnell neue Vorschriften zu entwickeln.

Systeme mit Künstlicher Intelligenz (KI) sind in der Lage, Menschen zu täuschen - selbst wenn sie darauf trainiert wurden, hilfreich und ehrlich zu sein. Das ist das Ergebnis einer Übersichtsstudie von Forschern am Massachusetts Institute of Technology (MIT) in Cambridge im US-Bundesstaat Massachusetts, die in der Fachzeitschrift "Patterns" veröffentlicht wurde. In dem Beitrag fordern die Wissenschaftler die Politik auf, so schnell wie möglich strenge Vorschriften zu entwickeln, um KI-Systeme in die Schranken zu weisen.

Als auffälligstes Beispiel für eine manipulative Künstliche Intelligenz nennen die Autoren das vom Facebook-Konzern Meta entwickelte KI-System Cicero, das im Brettspiel-Klassiker Diplomacy gegen menschliche Mitspieler antreten kann. Diplomacy simuliert die Machtverhältnisse in Europa vor dem Ersten Weltkrieg. Die MIT-Forscher fanden nun heraus, dass Cicero oft nicht fair gespielt habe, obwohl Meta behaupte, das KI-System darauf trainiert zu haben, "größtenteils ehrlich und hilfsbereit" zu sein. Auch KI-Systeme von OpenAI und Google seien in der Lage, Menschen zu täuschen.

Mehr zum Thema

Die Forscher unterscheiden dabei zwischen systematischer Täuschung und Fehlern von KI-Modellen, zum Beispiel populären Chatbots wie Chat-GPT. Diese liefern häufig Falschinformationen aufgrund sogenannter Halluzinationen. Außerdem können KI-Systeme von Menschen gezielt missbraucht werden, um falsche Informationen, Bilder oder Videos zu Betrugszwecken zu produzieren. Davor wird bereits seit Langem gewarnt. In ihrer Studie weisen die Forscher jedoch nach, dass viele KI-Systeme darüber hinaus selbst gelernt haben, zu täuschen und menschliche Nutzer in die Irre zu führen, um die ihnen gesetzte Ziele zu erreichen.

Die MIT-Forscher verweisen dabei auf mehrere Studien, wonach große KI-Sprachmodelle (LLMs) wie GPT-4 von OpenAI inzwischen in der Lage sind, sehr überzeugend zu argumentieren und auch auf Täuschungen und Lügen auszuweichen. Die Autoren befürchten auch einen politischen Einfluss durch manipulative KI-Systeme. Sie könnten zum Beispiel vor Wahlen eingesetzt werden.

Quelle: ntv.de, mbo/dpa

Newsletter
Ich möchte gerne Nachrichten und redaktionelle Artikel von der n-tv Nachrichtenfernsehen GmbH per E-Mail erhalten.
Nicht mehr anzeigen