KI-Notizen: Vercept, Modelldiebstahl und Dorsey

Drei Entwicklungen aus der letzten Woche, die ich kurz einordnen will.

Anthropic kauft Vercept – und Computer-Use wächst schnell

Anthropic hat das Startup Vercept übernommen, ein Team aus früheren Forschern des Allen Institute for AI, das einen KI-Agenten namens Vy gebaut hatte: Ein Agent, der einen entfernten Mac-Computer bedienen konnte, Bildschirminhalte verstand und Aufgaben in natürlicher Sprache ausführte. Vercept hatte rund 50 Millionen Dollar eingesammelt, Eric Schmidt und Google-DeepMind-Chefwissenschaftler Jeff Dean gehörten zu den Angel-Investoren.

Das Produkt wird zum 25. März abgeschaltet. Das Team kommt zu Anthropic. Kaufpreis unbekannt.

Warum das interessant ist: Computer-Use – also die Fähigkeit von KI-Agenten, echte Computer zu bedienen wie ein Mensch vor dem Bildschirm – war Ende 2024 noch eine experimentelle Spielerei. Claude schaffte damals unter 15% auf dem OSWorld-Benchmark, einem Standard-Test für diese Fähigkeit. Mit Sonnet 4.6 ist Claude laut Anthropic auf 72,5% gestiegen – annähernd menschliches Niveau für viele typische Aufgaben. Vercept hatte in diesem Bereich nach eigenen Angaben bessere Erkennungsmodelle als OpenAI, Google und Anthropic. Das dürfte ein wesentlicher Grund für den Kauf sein.

Was mich dabei nachdenklich macht: Vercept existiert jetzt nicht mehr als eigenständiges Produkt. Ein Team, das wirklich etwas gebaut hatte, verschwindet in einem großen Unternehmen. Das ist der normale Lauf der Dinge im KI-Bereich – aber es illustriert, wie schnell der Konsolidierungsdruck wirkt. Kleinere Akteure können kaum mithalten, wenn die großen Labs ihnen die besten Leute abkaufen.

Industrielle KI-Spionage: 16 Millionen gestohlene Gespräche

Anthropic hat diese Woche öffentlich gemacht, was man intern wohl schon länger beobachtet hatte: Chinesische KI-Unternehmen – DeepSeek, Moonshot AI und MiniMax – sollen über mehr als 24.000 gefälschte Konten systematisch Gespräche mit Claude erzeugt haben, um das Modell auszufragen und die Antworten für das Training eigener Modelle zu verwenden. Insgesamt sollen dabei über 16 Millionen Unterhaltungen entstanden sein.

Diese Technik nennt sich Modell-Destillation (englisch: Model Extraction): Man nutzt ein teures, leistungsstarkes Modell als Lehrmodell, um ein günstigeres Konkurrenzmodell damit zu trainieren. Das ist keine Neuigkeit – DeepSeek hatte schon früh Hinweise gegeben, mit OpenAI-Outputs trainiert zu haben. Neu ist das Ausmaß und die Professionalität: Die Aktivitäten wurden über ein Netzwerk von Proxy-Adressen verschleiert, das Anthropic als „Hydra-Netzwerk“ bezeichnet.

Google und OpenAI haben ähnliche Vorgänge in diesem Monat gemeldet. Anthropic hat inzwischen Erkennungssysteme entwickelt, die solche Kampagnen in Echtzeit aufspüren sollen – aber das Grundproblem, so das Unternehmen, lasse sich nicht unilateral lösen.

Was mich daran stört: Das ist nicht nur ein rechtliches Problem (wobei die rechtliche Lage komplex ist). Es ist ein strukturelles Problem. Wenn jahrelange teure Forschung innerhalb von Monaten über Destillation nachgebaut werden kann, verändert das die Dynamik des gesamten KI-Rennens. Es gibt keinen wirklich sicheren Vorsprung mehr – nur taktische Lücken.

Jack Dorsey und die halbe Block-Belegschaft

Jack Dorsey, Gründer und CEO von Block (dem Unternehmen hinter Cash App und dem Square-Zahlungsterminal), hat diese Woche die Hälfte seiner Belegschaft entlassen. Die Begründung: KI mache es möglich, mit weniger Leuten zu arbeiten. Dorsey räumte gleichzeitig ein, während der Covid-Pandemie zu viele Mitarbeiter eingestellt zu haben.

Das ist eine Meldung, die ich kurz stehenlassen will. Nicht weil Block besonders relevant für die KI-Entwicklung ist – sondern weil sie zeigt, was hinter den Labormeldungen über Modelle und Benchmarks gerade passiert. Die Auswirkungen auf Arbeit werden spürbarer. Dorsey ist kein Einzelfall; er ist einer der sichtbareren Fälle, die diese Woche berichtet wurden.

Wie sich das in größerem Maßstab entwickelt, bleibt offen. Aber die Geschwindigkeit, mit der Unternehmen diese Begründung jetzt öffentlich verwenden, ist ein Signal.

Schreibe einen Kommentar

2 × fünf =