Eskalation auf drei Ebenen: Governance, Regulierung, Wettbewerb

Governance-Krise: 76 Prozent ohne Überblick

Eine Umfrage von Informatica, einem Unternehmen für Datenmanagement, unter 600 Chief Data Officers zeigt ein strukturelles Problem: 76 Prozent können den AI-Einsatz ihrer Mitarbeiter nicht überwachen. Nicht weil sie es nicht wollen – sondern weil Unternehmen Generative AI schneller eingesetzt haben, als sie Kontrollstrukturen aufbauen konnten.

Das erklärt, warum AI-Pilotprojekte oft nicht skalieren. Es ist nicht die Technologie, die scheitert. Es ist die fehlende Struktur drumherum. Unternehmen vertrauen ihren Daten genug, um AI zu nutzen – aber sie haben keine Ahnung, was ihre Mitarbeiter mit diesen Daten tatsächlich machen.

Was mich daran ärgert: Das ist vorhersehbar. Natürlich passiert das, wenn man Technologie schneller verteilt als man sie versteht. Und trotzdem wird genau dieser Fehler wiederholt – bei jedem neuen Modell, bei jedem neuen Feature, bei jedem neuen Anwendungsfall.

Diese Kluft zwischen Einsatz und Kontrolle wird sich 2026 verschärfen. Je autonomer AI-Systeme werden, desto kritischer wird die Frage: Wer überwacht, was sie tun?

UK vs Google: Regulierung greift ein

Die UK Competition and Markets Authority (CMA), die britische Wettbewerbsbehörde, fordert von Google, Publishern ein Opt-out aus AI Overviews zu ermöglichen – den automatisch generierten Zusammenfassungen, die Google direkt in den Suchergebnissen anzeigt. Hintergrund: Publisher berichten von Besucherrückgängen, seit Google diese Zusammenfassungen eingeführt hat. Nutzer klicken seltener durch, weil sie die Information bereits in der Zusammenfassung bekommen.

Die CMA will außerdem mehr Transparenz und bessere Quellen-Kennzeichnung. Die Konsultation läuft bis zum 25. Februar und könnte ändern, wie AI-generierte Zusammenfassungen im UK funktionieren.

Das ist strukturell dieselbe Dynamik wie bei der SaaSpocalypse: AI steht zwischen Nutzer und Original-Quelle. Bei Google Search sind es Publisher, die Besucher verlieren. Bei Tech-Dienstleistern sind es Unternehmen, die Umsatz verlieren. In beiden Fällen stellt sich die Frage: Wer profitiert davon, wenn AI die direkte Verbindung kappt?

Und noch eine Frage, die mich beschäftigt: Was passiert, wenn die Quellen verschwinden, aus denen AI lernt? Wenn Publisher keinen Traffic mehr bekommen, produzieren sie weniger Content. Wenn weniger Content produziert wird, worauf trainieren dann zukünftige Modelle?

5. Februar: OpenAI und Anthropic im direkten Kampf

Am selben Tag – 5. Februar – haben beide AI-Giganten gleichzeitig große Updates angekündigt. Anthropic mit Claude Opus 4.6, OpenAI mit GPT-5.3-Codex und der Frontier-Plattform für Enterprise AI Agent Management.

GPT-5.3-Codex ist 25 Prozent schneller als der Vorgänger, kombiniert verschiedene Trainingsstränge und ermöglicht es Nutzern, in Echtzeit einzugreifen, während das Modell arbeitet. Die neue Codex-App für macOS funktioniert als „Command Center for Agents“ – bis zu 30 Minuten autonomes Arbeiten, mehrere Aufgaben parallel.

OpenAI Frontier ist die direkte Antwort auf Anthropics Cowork: Eine Enterprise-Plattform, die geteilten Kontext, Berechtigungen und Grenzen für AI-Agenten verwaltet. Genau das, was Unternehmen brauchen, wenn sie Agenten einsetzen wollen, ohne die Kontrolle zu verlieren.

Diese zeitliche Synchronität ist kein Zufall. Das ist Eskalation. OpenAI und Anthropic kämpfen nicht mehr nur um Leistungswerte in Tests. Sie kämpfen um Enterprise-Kunden, um die Definition dessen, was Agent-Verwaltung bedeutet, und um Marktanteile in einem Bereich, der gerade erst entsteht.

Beide Unternehmen planen für 2026 Börsengänge mit absurden Bewertungen – OpenAI zielt auf 500 Milliarden Dollar, Anthropic liegt bei etwa 350 Milliarden Dollar. Diese Updates sind Teil des Kampfes darum, wer mit der höheren Bewertung an die Börse geht.

Was mich daran fasziniert: Beide Unternehmen wissen, dass 2026 entscheidend ist. Wer jetzt zurückfällt, hat verloren. Deshalb diese Gleichzeitigkeit, diese Intensität. Das ist kein normaler Produktwettbewerb mehr. Das ist Existenzkampf.

Drei Ebenen, ein Muster

Governance-Krise, britische Regulierung, OpenAI-Anthropic-Eskalation – drei verschiedene Fronten, aber ein gemeinsames Muster: AI bewegt sich schneller, als Strukturen nachkommen.

Unternehmen setzen ein, bevor sie verstehen. Regulierung versucht nachzuziehen, während sich die Technologie weiterentwickelt. Und die Tech-Giganten beschleunigen den Wettbewerb, weil jeder weiß: Wer 2026 zurückfällt, hat 2027 verloren.

Das wird nicht langsamer. Es wird schneller.