Streit mit Anthropic eskaliertOpenAI-Chef verkündet KI-Deal mit Pentagon

Die KI-Firma Anthropic will nicht, dass das Pentagon ihre Software zur Massenüberwachung nutzt. Das sorgt für Streit und heftige Beschimpfungen aus dem Weißen Haus. Nun schließt das US-Verteidigungsministerium offenbar einen Deal mit Anthropic-Rivale OpenAI.
Im Streit zwischen dem Pentagon und der KI-Firma Anthropic um die Verwendung von Software mit Künstlicher Intelligenz (KI) im US-Militär hat offenbar der Rivale OpenAI den Zuschlag bekommen. In einem Statement auf der Plattform X verkündete OpenAI-Chef Sam Altman, man habe mit dem Verteidigungsministerium eine Vereinbarung getroffen. Details blieben dabei zunächst unklar. Die Ankündigung folgt wenige Stunden, nachdem das Pentagon Anthropic wegen der Unstimmigkeiten beim Einsatz von KI als Risiko für die nationale Sicherheit eingestuft hatte.
ChatGPT-Betreiber OpenAI und die Firma Anthropic wetteifern darum, ihre Software mit KI in Unternehmen und Behörden unterzubringen. Nun springt offenbar OpenAI in die Lücke. "Heute Abend haben wir mit dem Kriegsministerium eine Vereinbarung getroffen, unsere Modelle in dessen klassifiziertem Netzwerk einzusetzen", schrieb Altman bei X. Pentagon-Chef Pete Hegseth repostete das Statement, ebenso wie der ranghohe Beamte Emil Michael.
Altman erläuterte weiter, zwei der wichtigsten Sicherheitsprinzipien von OpenAI seien das Verbot inländischer Massenüberwachung sowie die menschliche Verantwortung für den Einsatz von Gewalt, einschließlich autonomer Waffensysteme. "Das Kriegsministerium stimmt diesen Prinzipien zu, verankert sie in Gesetz und Richtlinien, und wir haben sie in unsere Vereinbarung aufgenommen."
Auch Konkurrent Anthropic hatte auf diese beiden Punkte gepocht. Das Unternehmen wollte ihrem Chef Dario Amodei zufolge als Grenzen für die Verwendung seiner KI-Software im US-Militär durchsetzen, dass die KI der Firma nicht für Massenüberwachung in den USA sowie nicht in komplett autonomen Waffen eingesetzt wird.
Streit mit Anthropic
Am Freitag eskalierte der Streit: Hegseth ordnete an, Anthropic als "Supply-Chain Risk to National Security", also als Lieferketten-Risiko für die nationale Sicherheit, einzustufen. Mit sofortiger Wirkung dürften Auftragnehmer, Zulieferer oder Partner des US-Militärs keine Geschäfte mehr mit dem Unternehmen machen, schrieb Hegseth bei X. Anthropic solle dem Verteidigungsministerium noch maximal sechs Monate lang Dienstleistungen bereitstellen, um einen Übergang zu einem "besseren und patriotischeren" Anbieter zu ermöglichen.
Die Maßnahme erfolge im Zusammenhang mit einer Anweisung von Präsident Donald Trump, wonach alle Bundesbehörden die Nutzung von Anthropic-Technologie einstellen sollen. Das Verteidigungsministerium will nur mit KI-Firmen zusammenarbeiten, die "jedem legalen Einsatz" ihrer Software zustimmen. Anthropic hatte jedoch darauf beharrt, dass die von der Firma geforderten Einschränkungen wichtig seien.
Anthropic kündigte an, sich vor Gericht gegen die von Hegseth angeordnete Maßnahme zu wehren. "Keine Einschüchterung oder Strafe seitens des Kriegsministeriums wird unsere Haltung zu massiver Überwachung im Inland oder vollständig autonomen Waffen ändern", erklärte das Unternehmen.
Anthropic wurde 2021 von ehemaligen OpenAI-Mitarbeitern gegründet. Während OpenAI durch seinen Chatbot ChatGPT der breiten Öffentlichkeit bekannt ist, zielt Anthropic mit seinem Chatbot Claude eher auf Programmierer und Unternehmen ab, denen unter anderem Datensicherheit wichtig ist.
"KI noch nicht verlässlich genug"
Anthropic-Chef Amodei warnte in einem Blogbeitrag, dass Künstliche Intelligenz es möglich mache, über das Netz verstreute Daten einzelner Menschen in großem Stil automatisiert zu einem ausführlichen Bild ihres Lebens zusammenzusetzen. Zugleich sei KI noch nicht verlässlich genug, um in vollständig autonomen Waffen eingesetzt zu werden. "Wir werden nicht wissentlich ein Produkt liefern, das Amerikas Krieger und Zivilisten in Gefahr bringt", so Amodei.
Spannungen zwischen Anthropic und dem Pentagon wurden öffentlich, nachdem bekannt wurde, dass Software der Firma bei der US-Militäroperation zur Gefangennahme des venezolanischen Machthabers Nicolás Maduro eingesetzt wurde. Wofür genau sie dabei verwendet wurde, blieb unklar.
In seinem Statement auf X rief OpenAI-Chef Altman das Pentagon zugleich dazu auf, diese gleichen Bedingungen allen KI-Unternehmen anzubieten - "Bedingungen, die unserer Meinung nach jedes Unternehmen akzeptieren sollte". Man habe den Wunsch nach Deeskalation zum Ausdruck gebracht.
Er erklärte auch, dass OpenAI technische Schutzmaßnahmen entwickeln werde, um sicherzustellen, dass sich die Modelle wie vorgesehen verhielten, was auch dem Wunsch des Ministeriums entspreche. Zudem betonte Altman, das Pentagon habe bei allen Interaktionen tiefen Respekt gezeigt für Sicherheit und den Wunsch, gemeinsam das bestmögliche Ergebnis zu erzielen.