"Gewinnmarge sinkt für alle" So fährt Chinas Deepseek US-Techriesen in die KI-Parade
09.02.2025, 17:28 Uhr Artikel anhören
Ein KI-Modell aus China kommt wie aus dem Nichts und will mit ChatGPT und Google Gemini in einer Liga spielen. Was ist davon zu halten?
(Foto: IMAGO/CFOTO)
Die US-Konzerne Meta, Microsoft und die Google-Mutter Alphabet wollen dieses Jahr zusammengerechnet satte 228 Milliarden-Dollar in Infrastruktur für Künstliche Intelligenz stecken, 55 Prozent mehr als 2024. Anleger zweifeln, ob sich diese gigantischen Investitionen auszahlen werden. Denn ausgerechnet ein Startup aus China schockte die Welt mit einem Open-Source-KI-Modell, das nur einen Bruchteil des amerikanischen Konkurrenzmodells OpenAI gekostet haben soll. Was Deepseek besonders macht, ob es ein Sicherheitsrisiko darstellt oder geklaut hat und was von Selbstauskünften des Deepseek-Modells zu halten ist, erklärt Jonas Geiping vom Max-Planck-Institut für Intelligente Systeme im Gespräch mit ntv.de.
ntv.de: Haben Sie und Ihre Kollegen jemals damit gerechnet, dass ein Startup aus China die KI-Welt erschüttert?
Jonas Geiping: Das war sehr beeindruckend. Deepseek ist ein Außenseiter unter den chinesischen KI-Firmen. Größere Firmen wie Alibaba bekommen mehr Aufmerksamkeit von der Regierung in Peking. Deepseek ist nur ein Ableger eines kleinen Hedgefonds. Ausgerechnet der bringt ein großes und solides KI-Modell raus. Uns hat auch überrascht, dass das Beben mit Verzögerung kam. Das eigentliche Modell hatte Deepseek ja bereits vor mehr als einem Monat vorgestellt, und das Chat-Modell mit internem Dialog auch schon vor einigen Wochen.
Sie forschen seit neun Jahren zu KI. Was ist das Besondere an dem Deepseek-Modell?
Spannender als die neue Technologie ist für uns, dass Deepseek das Modell und den Algorithmus frei veröffentlicht hat. Wir wissen genau, wie die Parameter aussehen. Kollegen haben den Algorithmus nachgebaut und gesehen, es funktioniert. Bei der US-Konkurrenz OpenAI, die bislang führend auf dem Gebiet war, weiß keiner, wie das Modell wirklich funktioniert. Es gibt zwar auch einen internen Dialog, bevor eine Antwort ausgespuckt wird, so wie im neuen Deepseek-Modell, aber der ist geheim. Die Offenheit von Deepseek ist sehr erfrischend.
Deepseek hat also gar nichts Neues erfunden?
Das Modell ist dem von OpenAI sehr ähnlich. Technisch gesprochen, hat Deepseek den Algorithmus von OpenAI weitergebaut und verbessert. Einfache Modelle antworten aus dem Stegreif. Bei diesem fortgeschritteneren bringen Algorithmen dem Modell bei, bei komplizierteren Fragen einen internen Dialog zu führen, bevor es die Frage beantwortet. Beide, OpenAI und Deepseek, arbeiten mit dieser neuen Technologie. Aber Deepseek hat sie selbst weiterentwickelt und - viel wichtiger noch - transparent gemacht.
Was bedeutet das für die Zukunft?
Es gibt Bereiche, in denen man vor ein, zwei Jahren gesagt hat: Das wird KI nie können. Deepseek hat gezeigt, dass es doch möglich ist. Bei schwierigen mathematischen Aufgaben auf Universitätsniveau beispielsweise ging man davon aus, dass es fünf oder sechs Jahre dauern würde, bis die Modelle so etwas können. Man dachte, dafür müssten sie hundertmal größer sein. Deepseek hat bewiesen, dass es auch anders geht, und vor allem wie. Alle Firmen können ihre Modelle langsam vergrößern und mit mehr Daten trainieren und dadurch stetig verbessern, aber durch Algorithmen wie von Deepseek können jetzt Modelle "schlauer" gemacht werden, ohne sie größer zu machen.
Was ist mit den Sicherheitsrisiken bei chinesischen Unternehmen? Ich nenne nur Huawei. Ist bei Deepseek Vorsicht angebracht?
Aus europäischer Sicht kann man Bedenken haben. Deepseek wird sich nicht für mehr Datenschutz einsetzen, sondern mit den Daten aus der App das machen, was sie für richtig halten. Aber bei amerikanischen Apps muss man genauso vorsichtig sein. Bei dem Deepseek-Modell gibt es eine wichtige Besonderheit: Man kann es auf europäischen Servern lokal laufen lassen. Dann entscheidet man selbst, was mit den Daten passiert.
Ein chinesisches Unternehmen liefert eine Lösung, wie man Spionage aus Peking einen Riegel vorschieben kann?
Im Grunde, ja. Aber man muss unterscheiden: Es gibt das öffentliche Modell, über das wir gesprochen haben. Das kann man einsehen und begreifen, wie es funktioniert. Dazu gibt es die App, wo die Chinesen alles kontrollieren. Die Nutzer haben die Wahl. Wenn sie wollen, können sie sich schützen.
Das heißt, für mehr Sicherheit muss ich das Modell also auf meinen Laptop laden?
Ja, möglich ist das. Das haben viele bereits gemacht. Anfangs war Deepseek selbst über den Ansturm überrascht. Das System war völlig überfordert. Aber der Laptop wird ziemlich langsam dadurch. Wahrscheinlich würde es mehrere Tage dauern, bis Sie eine Antwort bekommen, und Sie bräuchten wahrscheinlich zwei Terabyte Speicherplatz. Besser wäre, einer europäischen Firma zu vertrauen, die das Modell auf ihrem Server anbietet.
Was ist an den Vorwürfen dran, dass Deepseek von OpenAI geklaut hat?
Hierbei geht es nicht um Datenklau oder irgendeinen Hack. In der Fachsprache spricht man von Destillation: Deepseek wird beschuldigt, ein Modell trainiert zu haben, das Antworten gesehen hat, die vom OpenAI-Modell generiert wurden.
Lässt sich das beweisen?
Aus wissenschaftlicher Sicht nicht. Es gibt wenig Indizien, die das eine oder das andere beweisen könnten. OpenAI flutet das Internet seit Jahren mit seinen Texten. Es ist sehr wahrscheinlich, dass das Deepseek-Modell Texte von ChatGPT gesehen hat. Zufällig sozusagen, das kann man gar nicht verhindern.
Also einfach dadurch, dass das Netz auf der Suche nach Antworten gescannt wird?
Ja, viele Menschen haben ihre Chats oder was auch immer ins Internet gestellt. Es spricht noch etwas dagegen, dass bewusst abgekupfert wurde: Es passt weder zum Algorithmus noch zu den Modellen, die Deepseek vorgestellt hat. Das Sprachmodell wird dank seines neuen Algorithmus' von selbst besser. Deepseek hätte es einfacher haben können, indem es nur Daten destilliert. Sie hätten diesen Algorithmus gar nicht weiterentwickeln müssen.
Im Netz kursieren Screenshots, auf denen man angeblich die Antwort des Deepseek-Modells auf die Frage sieht, wer es trainiert hat. Sie lautet: OpenAI. Ist das echt oder gefakt?
Screenshots kann man fälschen, aber es würde mich nicht überraschen, wenn die Antwort stimmt. Aus Forschungssicht ist das aber immer noch kein stichhaltiges Argument. Denn das Sprachmodell weiß nichts über sein eigenes Training. Die Antwort kann nur dadurch zustande kommen, dass man es ihm genauso beigebracht hat: Wenn man dich fragt, wer dich trainiert hat, antwortest du … Aber das ist viel Arbeit. Bei einer kleinen Firma wie Deepseek ist das wohl eher so nicht passiert. Das Modell hat kein starkes Ego, könnte man sagen. Mit einem großen Team wie bei OpenAI läuft das anders. Grundsätzlich versucht ein Sprachmodell immer eine Antwort zu geben, die wahrscheinlich ist. OpenAI trainiert viele Modelle, das war schon vor dem Training des Deepseek-Modells so - also ist es auch für dieses Modell eine wahrscheinliche Antwort.
Das Deepseek-Sprachmodell wurde mit schwächeren Nvidia-Chips entwickelt, die wegen der China-Sanktionen extra für den Markt hergestellt wurden. Wie konnte Deepseek damit so erfolgreich sein?
Das ist richtig. In dem Deepseek-Bericht heißt es, das Sprachmodell wurde mit 800er-Karten von Nvidia trainiert. Das ist der gleiche Chip, der in Amerika verkauft wird, nur etwas günstiger und die Kommunikation zwischen den Karten ist schwächer - vereinfacht gesagt ist der Anschluss, auf dem die Daten auf den Chip kommen, kleiner. Damit wollten die USA es schwieriger machen, große Chip-Cluster aufzubauen, mit denen man große Modelle trainieren kann. Deepseek hat bewiesen, dass es trotzdem möglich ist. Das hat vielleicht zwei oder drei Monate länger gedauert, aber mehr nicht.

Jonas Geiping ist Leiter der Forschungsgruppe für "sicheres und effizientes Lernen" am Max-Planck-Institut für Intelligente Systeme und ELLIS Institut Tübingen.
(Foto: Jonas Geiping)
In der KI-Branche geht es nicht nur um Leistung und Effizienz. Es geht auch ums Geldverdienen. Deepseek hat die Kosten für das finale Training seines Sprachmodells mit sparsamen 5,6 Millionen Dollar beziffert. Jetzt steht im Raum, dass die großen Techriesen unnötig viel Geld ausgeben. Ist das der Fall?
Unseren Schätzungen nach ist das Modell vielleicht um den Faktor zwei oder zweieinhalb günstiger, aber auf keinen Fall um den Faktor 100 oder 1000. Die Amerikaner trainieren auch günstige Modelle für 15 oder 20 Millionen. Darüber gibt es entsprechende Berichte, etwa von Anthropic. Das heißt, die Spanne ist nicht so groß. Der Punkt ist vielmehr, dass die Firmen in den USA dachten, sie seien die Einzigen, die das schaffen - und dabei eine gewisse Gewinnmarge herausholen können.
Die großen Platzhirsche aus der KI-Branche sind Tech-Konzerne aus den USA. Sind die goldenen Jahre für sie vorbei?
Die Erkenntnis, dass nicht nur Amerikaner KI können, war ein Schock - nicht nur für die Techkonzerne, sondern für die gesamte Branche weltweit. Grund zur Panik sehe ich aber nicht. Die amerikanischen Firmen sind halt nicht mehr unter sich, sondern müssen sich mit anderen auseinandersetzen.
Ist die wachsende Konkurrenz nicht ein Problem?
Durch Deepseek sinkt die Gewinnmarge für alle. Das ist richtig. KI ist extrem kapitalintensiv. Man braucht viel Strom und viele teure Chips, die - relativ zu den Kosten dieser Chips - eine vergleichsweise einfache Berechnung anstellen. Nur mit sehr vielen Daten und sehr viel Leistung. Die Frage ist am Ende des Tages, wie viel Geld steckt in diesem Business, große Modelle zu trainieren? Wenn immer mehr KI-Firmen das können, wahrscheinlich eher weniger. An dem veröffentlichten Deepseek-Modell können sich jetzt viele kleinere Firmen, die kein eigenes Modell haben, bedienen. Wir könnten eine Konsolidierung sehen. Andererseits sehen wir, dass der Bedarf nach KI-Assistenz stark steigt, und bessere Modelle, die bei mehr Aufgaben helfen können, sind vor allem gefragt.
China erobert im Westen eine Domain nach der anderen, jetzt auch KI. Ist China vom Schüler zum Meister geworden?
Eine gute Frage. Früher haben sie eher mal was kopiert. Jetzt zeigen sie immer mehr, es geht auch anders. Sie können eigene Sachen, die funktionieren, mit eigener Forschung und Entwicklung auf Weltrang - zumindest in Bereichen wie KI oder Batterietechnik. Ich weiß nicht, ob man sagen kann, sie sind den Kinderschuhen entwachsen, aber ja, hier gibt es immer mehr Eigenes und selbst Entwickeltes.
Mit Jonas Geiping sprach Diana Dittmer
Quelle: ntv.de