Jensen Huangs neues Imperium

Nvidia hat gerade seine wichtigste Konferenz des Jahres hinter sich. Die GTC 2026 in San Jose, vier Tage, Jensen Huang im Rampenlicht. Das Interessante daran ist nicht, was präsentiert wurde – sondern was es über die Richtung aussagt, in die sich die KI-Industrie bewegt.

Bis vor Kurzem war Nvidia die GPU-Firma. Wer KI-Modelle trainieren wollte, brauchte Nvidias Grafikprozessoren. Das war das Geschäftsmodell, das aus Nvidia das wertvollste Unternehmen der Welt gemacht hat. Aber auf der GTC 2026 wurde deutlich: Nvidia will dieses Modell hinter sich lassen.

Vom Chip zum Stack

Die größte Ankündigung war der Groq 3 Language Processing Unit – ein völlig neuer Chip-Typ, entwickelt auf Basis von Nvidias 20-Milliarden-Dollar-Übernahme des Chip-Startups Groq im Dezember. Während Nvidias bisherige GPUs für das Training von Modellen optimiert sind, ist der Groq 3 auf Inferenz ausgerichtet: auf das Ausführen von Modellen, das Beantworten von Anfragen, das Betreiben von KI-Agenten.

Dazu kommt der Vera CPU – Nvidias erster eigener Server-Prozessor, der direkt gegen Intels Dominanz in Rechenzentren antritt. Und NemoClaw, eine Unternehmensversion des Open-Source-Agenten-Frameworks OpenClaw, das Nvidia mit eigenem Software-Stack überzieht.

Das Muster ist offensichtlich: Nvidia baut sich vom Chip-Zulieferer zum Full-Stack-Anbieter um. Training, Inferenz, CPU, Networking, Storage, Agenten-Software – alles aus einer Hand. Jensen Huang nannte agentic AI auf der Keynote einen Wendepunkt: Die Industrie verschiebt sich von Chatbots, die auf Fragen antworten, zu KI-Agenten, die eigenständig Aufgaben erledigen.

Warum das über Chips hinausgeht

Was mich daran wirklich beschäftigt, ist die strukturelle Logik dahinter. Solange KI hauptsächlich Training bedeutete – riesige Modelle auf riesigen GPU-Clustern – war Nvidias Position relativ einfach. Wer trainieren wollte, brauchte GPUs, und Nvidias GPUs waren die besten.

Aber Inferenz ist anders. Sie ist verteilter, kostensensitiver. Und genau hier entsteht echte Konkurrenz: Amazon, Google und Meta bauen seit Jahren eigene KI-Chips für Inferenz. Der Anteil von Nvidias Hardware sinkt in dem Maße, in dem Modelle nicht mehr trainiert, sondern nur noch ausgeführt werden.

Nvidias Antwort ist der Versuch, sich tiefer in den Stack einzugraben – nicht nur die Hardware zu liefern, sondern die Software, die Architektur, die Frameworks. Das ist dasselbe, was Microsoft einst mit Windows gemacht hat, was Apple mit eigenen Chips macht, was Google mit TPUs und Android versucht. Kontrolle über den Stack bedeutet Kontrolle über das Ökosystem.

Ob das aufgeht, ist eine andere Frage. Die Investoren reagierten verhalten – die Aktie stieg minimal, obwohl die Ankündigungen technisch beeindruckend waren. Vielleicht, weil das GPU-Flaggschiff (Vera Rubin) schon im Januar auf der CES gezeigt wurde und die GTC kaum echte Überraschungen brachte.

Mich lässt das nachdenklich zurück. Nvidia hat die bisherige KI-Welle dominiert wie kaum ein Unternehmen eine technologische Welle dominiert hat. Aber die nächste Welle – agentic AI, verteilte Inferenz, physische KI in Robotern – ist strukturell anders. Nvidia bewegt sich vorausschauend. Ob schnell genug, werden die nächsten zwei Jahre zeigen.

Schreibe einen Kommentar

siebzehn − 7 =