Am 5. Februar hat Perplexity eine Funktion gelauncht, die auf den ersten Blick wie ein nettes Feature aussieht. Model Council lässt drei Frontier-Modelle parallel auf dieselbe Frage antworten – Claude Opus 4.6, GPT-5.2, Gemini 3.0 – und synthetisiert die Ergebnisse. Zeigt, wo sie übereinstimmen, wo sie sich widersprechen, was jedes Modell einzigartig beiträgt.
Aber das ist mehr als nur ein Feature. Es ist ein Signal. Perplexity sagt damit: Es gibt kein „bestes Modell“. Die Frage, wer auf LMArena ganz oben steht, ist weniger relevant als die Frage, welche unterschiedlichen Perspektiven zusammen ein besseres Ergebnis liefern. Das ist das Gegenteil vom Wettrennen. Es ist ein Eingeständnis, dass der ganze „wer ist vorne“-Diskurs vielleicht die falsche Fragestellung war.
Und genau in derselben Woche, in der Perplexity dieses Signal sendet, eskaliert der Kampf zwischen Anthropic und OpenAI auf eine Ebene, die nichts mehr mit Modellen zu tun hat: Politik.
Der Super PAC War
Am 12. Februar gibt Anthropic bekannt, dass sie 20 Millionen Dollar in Public First Action stecken – eine politische Advocacy-Gruppe, die pro-Regulierungs-Kandidaten unterstützt. Die Gruppe wurde im November von zwei ehemaligen Kongressabgeordneten gegründet, einem Republikaner und einem Demokraten, mit einem klaren Ziel: dem Super PAC-Netzwerk von OpenAI entgegenzutreten.
OpenAI hat über Leading the Future bereits mehr als 125 Millionen Dollar in die Unterstützung von Kandidaten gesteckt, die gegen strenge KI-Regulierung sind. Zu den Geldgebern gehören Marc Andreessen, Greg Brockman (OpenAI-Mitgründer), und mehrere Venture-Capital-Firmen. Die Message: Ein „Flickenteppich“ aus staatlichen Regulierungen würde Innovation ersticken und die USA im KI-Wettkampf gegen China schwächen.
Anthropics Message ist anders: „Die Unternehmen, die KI bauen, haben die Verantwortung sicherzustellen, dass die Technologie dem Gemeinwohl dient, nicht nur ihren eigenen Interessen.“ Sie wollen „sinnvolle Schutzmaßnahmen, Förderung von Jobs, Schutz von Kindern und echte Transparenz von den Unternehmen, die die mächtigsten KI-Modelle bauen“.
Was hier passiert, ist bemerkenswert: Der Wettbewerb erweitert sich. Es geht nicht mehr nur darum, wer das bessere Modell hat. Es geht parallel darum, wer die Regeln kontrolliert, unter denen diese Modelle entwickelt werden dürfen. Die technische Entwicklung läuft weiter, aber der politische Kampf wird mit derselben Intensität geführt. Die Midterm-Wahlen 2026 werden zum Stellvertreter-Krieg zwischen zwei Visionen davon, wie KI entwickelt werden soll.
Die Insider steigen aus
Und dann, am 11. Februar, kündigen zwei Forscher. Mrinank Sharma verlässt Anthropic, Zoë Hitzig verlässt OpenAI. Beide mit öffentlichen Warnungen.
Sharma schreibt in seinem Abschiedsbrief: „Die Welt ist in Gefahr. Und nicht nur durch KI oder Biowaffen, sondern durch eine ganze Reihe miteinander verbundener Krisen, die sich genau in diesem Moment entfalten.“ Er ist stolz auf seine Arbeit zu „internen Transparenzmechanismen“ und einem finalen Projekt darüber, „wie KI-Assistenten uns weniger menschlich machen oder unsere Menschlichkeit verzerren könnten“. Aber es reicht ihm nicht mehr.
Das sind keine frustrierten Praktikanten. Das sind Leute, die an der Front gearbeitet haben, die verstehen, was diese Systeme tun und wohin sie führen. Und sie sagen: Das reicht nicht. Die Richtung stimmt nicht.
Was das zusammen bedeutet
Diese drei Entwicklungen – Model Council, der Super PAC War, die Researcher-Exits – erzählen zusammen eine Geschichte über einen Moment, in dem die Frage „wer baut das beste Modell“ nicht mehr die einzige relevante Frage ist.
Perplexity sagt: Vielleicht gibt es gar kein bestes Modell. Vielleicht sind unterschiedliche Perspektiven zusammen wertvoller als eine einzelne „Frontier“. Das unterminiert die ganze Logik des Wettrennens.
Anthropic und OpenAI sagen durch ihre Super PACs: Der Kampf findet nicht mehr nur in den Labs statt. Er findet parallel in Washington statt, in Wahlkämpfen, in der Frage, wer die gesetzlichen Rahmenbedingungen kontrolliert. Und dort ist die Unsicherheit möglicherweise größer als im technischen Wettbewerb – weil weniger kontrollierbar.
Und die Forscher, die aussteigen, sagen: Selbst wenn ihr „gewinnt“ – egal ob technisch oder politisch – es löst die fundamentalen Probleme nicht. Die „interconnected crises“ bleiben.
Mich triggert daran vor allem eines: Die Illusion von Kontrolle bröckelt. Das Narrativ „wenn wir nur schnell genug sind, wenn wir nur gut genug sind, wenn wir nur die richtigen Regeln durchsetzen, dann kriegen wir das hin“ – es zeigt Risse. Model Council ist ehrlich darüber, dass es kein einzelnes „bestes System“ gibt. Der Super PAC War zeigt, dass technische Überlegenheit alleine nicht mehr ausreicht. Die Exits zeigen, dass selbst die Insider nicht mehr glauben, dass die aktuellen Institutionen die Antworten haben.
Das ist keine pessimistische Analyse. Es ist eine realistische. Und vielleicht ist Realismus genau das, was gerade fehlt – in einer Industrie, die zwischen Hype und Panik oszilliert, ohne viel Raum für nüchterne Bestandsaufnahme.
Die Woche vom 7. bis 12. Februar 2026 war keine große Launch-Woche. Aber sie war eine Woche, in der deutlich wurde: Der KI-Wettlauf wird komplexer. Es geht nicht mehr nur um Benchmarks und Modelle. Es geht um Politik, um Macht, um die Frage, wer die Zukunft dieser Technologie kontrolliert. Und das ist schwieriger zu gewinnen als ein Platz auf LMArena.