Wissen

Wirbel um Claude MythosExperte rechnet mit "Welle von Angriffen mit KI"

15.04.2026, 18:55 Uhr
00:00 / 04:27
Computer-virus-and-cyber-attack-visualized-on-laptop-with-binary-code-property-released-ABRF01416
Aus Sicht deutscher Forscher birgt die breite Verfügbarkeit von KI-Modellen, die Hackerangriffe durchführen können, die größte Gefahr. (Foto: IMAGO/Westend61)

Eine KI, die jeden Menschen beim Hacken von Software übertrifft: Was die US-Firma Anthropic entwickelt haben will, bewerten Forscher in Deutschland als "keine gute Neuigkeit" für die IT-Sicherheit. Sorge bereitet vor allem, dass Cyber-Attacken dadurch einfacher werden.

Ein vom US-Unternehmen Anthropic entwickeltes KI-Modell soll überraschend gut darin sein, Schwachstellen in von der breiten Öffentlichkeit genutzter Software zu finden - und auszunutzen. Laut Anthropic habe man mit dem "Claude Mythos" genannten Modell bereits "tausende" schwerwiegende Schwachstellen gefunden. Wie gefährlich ist diese KI?

"Das ist tatsächlich keine gute Neuigkeit für die IT-Sicherheit", sagt Konrad Rieck. Er leitet den Lehrstuhl für Maschinelles Lernen und Sicherheit am Berlin Institute for the Foundations of Learning and Data an der Technischen Universität Berlin. Offenbar könne eine Reihe von Schwachstellen durch KI-Modelle besser gefunden werden als bisher, so Rieck. "Warum das so ist, bleibt bislang weitgehend unklar."

Einen Großteil der bisher angeblich gefundenen Sicherheitslücken hält Anthropic geheim, bis sie behoben werden. Nur zwei Beispiele stellte das Unternehmen vor: eine 27 Jahre alte Schwachstelle in dem Open-Source-Betriebssystem OpenBSD und eine 16 Jahre alte Schwachstelle in dem Softwareprojekt FFmpeg, das zum Aufzeichnen, Senden und Konvertieren von Audio- und Videodateien genutzt wird. 

"System mit sehr hohem Sicherheitsniveau" verlangsamt

"In FFmpeg wurden allerdings in den letzten Jahren über 250 Schwachstellen gefunden", kommentierte Rieck. "Eine weitere überrascht daher nicht besonders." Der Fall bei OpenBSD sei interessanter. "Das ist ein System mit sehr hohem Sicherheitsniveau", sagte der KI-Experte. Deshalb sei jede gefundene Schwachstelle relevant. Allerdings ermögliche die von Mythos gefundene Schwäche lediglich, das System zu verlangsamen, nicht jedoch, es zu übernehmen.

Anthropic will seine KI aus Sicherheitsgründen vorerst nicht veröffentlichen. Es handelt sich laut dem Unternehmen allerdings nicht um ein spezielles Sprachmodell, sondern ein Allzweckmodell - ähnlich jenen, die derzeit auch in populären Chatbots verwendet werden.

Laien könnten bald Angriffe ausführen

Aus Sicht von Experten liegt die Gefahr vor allem darin, dass mit solchen KI-Modellen mehr Menschen die Möglichkeit hätten, Cyber-Angriffe durchzuführen als vorher. "Der entscheidende Punkt ist weniger, dass solche Modelle völlig neue Angriffe ermöglichen", sagt Thorsten Holz, wissenschaftlicher Direktor am Max-Planck-Institut für Sicherheit und Privatsphäre. "Das Problem ist vielmehr, dass dadurch auch weniger erfahrene Akteure darauf Zugriff haben als zuvor."

"Bisher benötigte es sehr fähige Hacker, um solche Schwachstellen zu finden", warnt auch Jörn Müller-Quade, Professor für Kryptographie und Sicherheit am Karlsruher Institut für Technologie in Karlsruhe. Nun ermögliche ein KI-Modell jedem Laien, Angriffe durchzuführen. Das Problem sei nicht neu, aber viel größer geworden. Quade rechnet daher mit einer "Welle von Angriffen mit KI".

"Cyberkriminelle brauchen keine KI"

KI-Experte Rieck betont jedoch, dass bestehende Schutzmaßnahmen für IT-Systeme grundsätzlich auch gegen KI-gestützte Angriffe wirken "KI-Modelle, die Schwachstellen finden und ausnutzen, sind letztlich nur schnellere Angreifer", so der Experte. Mit Blick auf die Ergebnisse von Anthropic scheine es derzeit zwar einen Vorteil für Angreifer zu geben. "Ob und wie sich dieser in tatsächlicher krimineller Aktivität niederschlägt, bleibt abzuwarten." Cyberkriminelle setzen bislang überwiegend auf einfache Techniken und nutzen mangelhaft gesicherte Systeme aus, so Rieck. Für ein profitables kriminelles Geschäftsmodell bräuchte es daher bisher keine KI.

Wie geht es weiter mit der Hacker-KI Mythos? Neben den firmeninternen Tests kündigte Anthropic an, das Modell mehreren Soft- und Hardwareanbietern zur Verfügung zu stellen, darunter Apple, Crowdstrike, Google, Microsoft und Nvidia. Diese sollen mit Hilfe des Modells mögliche Sicherheitslücken finden und beheben, bevor sie ausgenutzt werden. Die Zusammenarbeit läuft unter dem Namen Project Glasswing.

Quelle: ntv.de, kst

Künstliche IntelligenzHackerCyberkriminalität