Am Donnerstag, den 23. April, veröffentlichte OpenAI GPT-5.5. Am Freitag, den 24. April, veröffentlichte DeepSeek V4. Zwei Spitzenmodelle an zwei aufeinanderfolgenden Tagen. Beide mit einem Kontextfenster von einer Million Token. Beide mit Benchmarks, die sich gegenseitig zitieren und übertreffen.
Aber das Interessante an DeepSeek V4 ist nicht der Vergleich mit GPT-5.5. Das Interessante ist, auf welcher Hardware DeepSeek V4 trainiert wurde.
Huawei statt Nvidia
DeepSeek gibt in seinem technischen Bericht an, V4 auf Huawei Ascend-Prozessoren trainiert zu haben. Nicht auf Nvidia H100 oder H800, auf die chinesische Unternehmen seit den US-Exportkontrollen von 2022 und 2023 keinen regulären Zugang mehr haben. Sondern auf chinesischer Hardware, die als direkter Ersatz entwickelt wurde.
Das ist die eigentliche Nachricht dieser Woche. Nicht die Benchmarks.
Die Logik hinter den US-Exportkontrollen war klar: Wer keine Nvidia-GPUs bekommt, kann keine leistungsstarken KI-Modelle trainieren. Die Kontrolle über die Hardware ist die Kontrolle über die Entwicklungsgeschwindigkeit. Das war eine nachvollziehbare Theorie. Aber DeepSeek hat jetzt ein Modell mit 1,6 Billionen Parametern veröffentlicht, das nach eigenen Angaben nur drei bis sechs Monate hinter den besten amerikanischen Modellen liegt, und es auf chinesischen Chips trainiert.
Gleichzeitig sprangen die Aktien des chinesischen Chipherstellers SMIC um zehn Prozent, weil SMIC die Huawei Ascend-Prozessoren produziert. Der Markt hat verstanden, was das bedeutet.
Was V4 ist
DeepSeek V4 erscheint in zwei Varianten: V4-Pro mit 1,6 Billionen Gesamtparametern (49 Milliarden aktiv pro Token) und V4-Flash mit 284 Milliarden Parametern (13 Milliarden aktiv). Beide nutzen eine Mixture-of-Experts-Architektur, bei der immer nur ein kleiner Teil der Parameter tatsächlich aktiv ist. Das macht das Modell rechnerisch effizienter, als die rohe Parameterzahl vermuten lässt.
Beide Modelle sind Open Source unter MIT-Lizenz, sofort auf Hugging Face verfügbar und über die DeepSeek-API abrufbar. Der Preis liegt deutlich unter US-Konkurrenten: V4-Pro kostet 1,74 Dollar pro Million Eingabe-Token. GPT-5.5 kostet das Dreifache.
Auf Coding-Benchmarks übertrifft V4-Pro alle aktuellen Open-Source-Modelle. Bei Weltwissen liegt es nach DeepSeeks eigenen Angaben hinter Googles Gemini 3.1 Pro, aber vor allen anderen offenen Modellen. Die Gesamteinschätzung von DeepSeek selbst: drei bis sechs Monate hinter dem Stand der leistungsstärksten Modelle. Diese Zahl ist vermutlich konservativ.
Die Theorie, die nicht aufgegangen ist
Mich beschäftigt weniger die Frage, ob DeepSeek V4 mit GPT-5.5 mithalten kann. Mich beschäftigt die Frage, was von der Theorie der Exportkontrollen übrig bleibt.
Die Antwort der chinesischen KI-Industrie auf den Ausschluss von Nvidia-Hardware war nicht Verlangsamung. Sie war: eigene Chips bauen. Und diese Chips funktionieren jetzt gut genug, um eines der größten Modelle der Welt zu trainieren. Was genau war der Plan für diesen Fall?
OpenAI und Anthropic haben öffentlich behauptet, DeepSeek habe durch illegale Destillation aus ihren Modellen gelernt, also deren Ausgaben als Trainingsdaten genutzt, ohne Genehmigung. Die chinesische Außenpolitik hat das als unbegründet zurückgewiesen. Aber selbst wenn es stimmt: Destillation erklärt keine architektonischen Innovationen. Andere Open-Source-Modelle, die aus US-Modellen destilliert wurden, erreichen nicht annähernd die Leistung von V4. DeepSeek macht etwas Eigenes.
GPT-5.5, einen Tag früher
GPT-5.5 erschien am 23. April, sechs Wochen nach GPT-5.4. OpenAI steht für über 25 Milliarden Dollar Jahresumsatz, hat Zugang zur besten verfügbaren Hardware und veröffentlicht inzwischen keine Jahresmodelle mehr, sondern kontinuierliche Updates. Das Modell verbessert autonome, mehrstufige Arbeitsabläufe und benötigt dabei weniger Token als sein Vorgänger.
Und dann, einen Tag später: DeepSeek V4. Ein chinesisches Unternehmen ohne regulären Zugang zu Nvidia-Chips, das sein Modell auf Huawei-Hardware trainiert hat und trotzdem in dieselbe Liga fällt.
Das ist der eigentliche Vergleich. Nicht Benchmark gegen Benchmark, sondern Voraussetzung gegen Voraussetzung. Wenn das Embargo bedeuten sollte, dass China nicht mithalten kann, dann hat es das nicht geleistet. Es hat China zu etwas gezwungen, das am Ende womöglich folgenreicher ist: Unabhängigkeit.