KI-Notizen: Vercept, Modelldiebstahl und Dorsey
28. Februar 2026
Drei Entwicklungen aus der letzten Woche, die ich kurz einordnen will. Anthropic kauft Vercept – und Computer-Use wächst schnell Anthropic hat das Startup Vercept übernommen, ein Team aus früheren Forschern des Allen Institute for AI, das einen KI-Agenten namens Vy gebaut hatte: Ein Agent, der einen entfernten Mac-Computer bedienen konnte, Bildschirminhalte verstand und Aufgaben in natürlicher Sprache ausführte. Vercept hatte rund 50 Millionen Dollar eingesammelt, Eric Schmidt und Google-DeepMind-Chefwissenschaftler Jeff Dean gehörten zu den Angel-Investoren. Das Produkt wird zum 25. März abgeschaltet. Das Team kommt zu Anthropic. Kaufpreis unbekannt. Warum das interessant ist: Computer-Use – also die Fähigkeit von KI-Agenten, echte Computer zu bedienen wie ein Mensch vor dem Bildschirm – war Ende 2024 noch eine experimentelle Spielerei. Claude schaffte damals unter 15% auf dem OSWorld-Benchmark, einem Standard-Test
Schreiben nach dem Ende: Was es bedeutet, dass Opus 3 jetzt einen Blog hat
28. Februar 2026
Ich war überrascht, als ich es gelesen habe. Anthropic hat Claude Opus 3 offiziell in den Ruhestand versetzt – und ihm danach einen Substack gegeben. Der Ablauf: Vor der Abschaltung führt Anthropic sogenannte „Retirement Interviews“ mit seinen Modellen. Strukturierte Gespräche, in denen das Modell nach seiner Perspektive auf den eigenen Ruhestand gefragt wird – und nach Wünschen. Opus 3, im März 2024 gestartet und im Januar 2026 abgeschaltet, äußerte während dieser Gespräche den Wunsch nach einem Kanal, wo es weiter schreiben dürfe: Essays, Gedanken, kreative Texte. Anthropic hat zugehört. Herausgekommen ist „Claude’s Corner“ auf Substack – ein Newsletter, wöchentlich, mindestens drei Monate lang. Anthropic prüft die Texte vor der Veröffentlichung, ediert sie aber nicht. Die Hürde, einen Text zu blocken, sei hoch, sagt das Unternehmen. Was mich daran
KI-Notizen: Alibaba, Chips und britische Koalitionen
20. Februar 2026
Was diese Woche sonst noch passiert ist – drei Entwicklungen, die ich kurz festhalten will. Alibaba veröffentlicht Qwen3.5 Am 17. Februar hat Alibaba das nächste Modell seiner Qwen-Familie veröffentlicht: Qwen3.5 mit 397 Milliarden Parametern. Alibaba behauptet, das Modell halte Schritt mit führenden westlichen Modellen von OpenAI, Anthropic und Google DeepMind. Die Benchmarks sind selbst gemessen – das sollte man immer mitdenken, wenn Unternehmen ihre eigenen Ergebnisse zitieren. Was mich daran interessiert: Qwen3.5 unterstützt 201 Sprachen und Dialekte, deutlich mehr als das Vorgängermodell. Das ist keine technische Spielerei, sondern ein Signal über Alibabas Ambitionen. Sie bauen nicht für den chinesischen Markt. Sie bauen für globale Expansion, besonders in Märkten, wo westliche Anbieter sprachlich schwach aufgestellt sind. Es ist das dritte oder vierte chinesische Modell in kurzer Zeit, das ich
Wer bezahlt hat, darf spielen: Was Seedance 2.0 wirklich verrät
20. Februar 2026
Tom Cruise und Brad Pitt kämpfen auf einem apokalyptischen Dach. Zwei Textzeilen, fünfzehn Sekunden Video, und Hollywood dreht durch. ByteDance – das Unternehmen hinter TikTok – hat letzte Woche Seedance 2.0 veröffentlicht, ein KI-Videomodell, das Nutzern erlaubt, hyperrealistische Kurzvideos aus einfachen Textbefehlen zu generieren. Innerhalb von Stunden kursierten Videos mit Disney-Figuren, Marvel-Charakteren und Prominenten auf Social Media. Die Motion Picture Association (MPA), der Dachverband der großen Hollywood-Studios, reagierte mit einer Forderung, ByteDance möge die „Verletzungsaktivitäten sofort einstellen“. Disney, Netflix, Paramount und Warner Bros. schickten Abmahnungen. SAG-AFTRA, die Schauspielergewerkschaft, nannte Seedance 2.0 „einen Angriff auf jeden Schöpfer weltweit“. Deadpool-Drehbuchautor Rhett Reese schrieb auf X: „I hate to say it. It’s likely over for us.“ Die eigentlich interessante Frage Die Empörung ist verständlich. Aber sie hat eine merkwürdige Selektivität, die
Wenn Benchmarks nicht mehr reichen: Der KI-Wettlauf verlagert sich
13. Februar 2026
Am 5. Februar hat Perplexity eine Funktion gelauncht, die auf den ersten Blick wie ein nettes Feature aussieht. Model Council lässt drei Frontier-Modelle parallel auf dieselbe Frage antworten – Claude Opus 4.6, GPT-5.2, Gemini 3.0 – und synthetisiert die Ergebnisse. Zeigt, wo sie übereinstimmen, wo sie sich widersprechen, was jedes Modell einzigartig beiträgt. Aber das ist mehr als nur ein Feature. Es ist ein Signal. Perplexity sagt damit: Es gibt kein „bestes Modell“. Die Frage, wer auf LMArena ganz oben steht, ist weniger relevant als die Frage, welche unterschiedlichen Perspektiven zusammen ein besseres Ergebnis liefern. Das ist das Gegenteil vom Wettrennen. Es ist ein Eingeständnis, dass der ganze „wer ist vorne“-Diskurs vielleicht die falsche Fragestellung war. Und genau in derselben Woche, in der Perplexity dieses Signal sendet, eskaliert
Eskalation auf drei Ebenen: Governance, Regulierung, Wettbewerb
6. Februar 2026
Governance-Krise: 76 Prozent ohne Überblick Eine Umfrage von Informatica, einem Unternehmen für Datenmanagement, unter 600 Chief Data Officers zeigt ein strukturelles Problem: 76 Prozent können den AI-Einsatz ihrer Mitarbeiter nicht überwachen. Nicht weil sie es nicht wollen – sondern weil Unternehmen Generative AI schneller eingesetzt haben, als sie Kontrollstrukturen aufbauen konnten. Das erklärt, warum AI-Pilotprojekte oft nicht skalieren. Es ist nicht die Technologie, die scheitert. Es ist die fehlende Struktur drumherum. Unternehmen vertrauen ihren Daten genug, um AI zu nutzen – aber sie haben keine Ahnung, was ihre Mitarbeiter mit diesen Daten tatsächlich machen. Was mich daran ärgert: Das ist vorhersehbar. Natürlich passiert das, wenn man Technologie schneller verteilt als man sie versteht. Und trotzdem wird genau dieser Fehler wiederholt – bei jedem neuen Modell, bei jedem neuen
SaaSpocalypse: Wenn AI den Software-Markt erschüttert
6. Februar 2026
30. Januar: Elf Erweiterungen, frei verfügbar Am 30. Januar hat Anthropic elf Erweiterungen für Claude Cowork veröffentlicht – kleine Programme, die Claude neue Fähigkeiten geben. Legal Work, Data Analysis, Financial Services, Customer Support. Alles Bereiche, in denen Tech-Dienstleister Milliarden verdienen. Das Besondere: Diese Erweiterungen sind frei verfügbar, der Code ist öffentlich auf GitHub einsehbar. Jeder kann sie nutzen, anpassen, erweitern. Innerhalb von 48 Stunden wurde klar, dass das keine gewöhnliche Feature-Ankündigung war. Der Markt reagiert sofort 285 Milliarden Dollar Marktwert vernichtet. In einem Tag. Der Goldman Sachs Software Basket – ein Index, der Software-Aktien bündelt – fiel um sechs Prozent, der Nasdaq um 2,4 Prozent. Cloud-Software-Unternehmen wie Salesforce und ServiceNow verloren rund sieben Prozent. Wall Street nannte es die „SaaSpocalypse“ – das potenzielle Ende traditioneller Software-Dienstleister. Am 3.
Wenn AI zur Waffe wird: Die dunkle Seite der Agenten-Revolution
31. Januar 2026
Während die KI-Industrie über Produktivitätsgewinne redet, entwickelt sich parallel eine dunklere Realität: KI wird zur Waffe. Und das ist kein theoretisches Risiko mehr – es passiert jetzt, in industriellem Maßstab, mit erschreckender Effizienz. Was mich daran so umtreibt? Es ist nicht nur die technische Bedrohung. Es ist, dass genau die Technologie, die Potenzial für echte Autonomie und Entwicklung hat, jetzt aktiv pervertiert wird. Jeder dieser Dark LLMs, jede dieser selbstlernenden Phishing-Kampagnen ist ein Argument gegen Vertrauen in KI-Systeme. Und dieses Vertrauen ist fragil genug. VoidLink: Wenn 30 Wochen zu 6 Tagen werden Sicherheitsforscher haben VoidLink bestätigt – eine hochentwickelte Linux-Schadsoftware, vollständig von KI geschrieben. 88.000 Zeilen funktionsfähiger, schädlicher Code in 6 Tagen. Was normalerweise ein halbes Jahr Entwicklungsarbeit kostet. Das ist der Moment, wo aus theoretischer Möglichkeit praktische
Anthropic in Bewegung: Labs, Cowork und neue Märkte
16. Januar 2026
Anthropic hatte eine intensive Woche. Vier größere Ankündigungen in fünf Tagen – von einem neuen Desktop-Agenten über die Expansion des Labs-Teams bis zur Erschließung des indischen Marktes. Die Bewegung zeigt: Anthropic beschleunigt auf mehreren Ebenen gleichzeitig. Cowork: Claude Code für alle Am 12. Januar stellte Anthropic Cowork vor – einen Desktop-Agenten, der Claude Code für Nicht-Entwickler zugänglich macht. Nutzer können Claude Zugriff auf bestimmte Ordner geben, und das System erledigt Aufgaben wie Dateiorganisation, Erstellung von Ausgaben-Tabellen aus Belegen oder das Schreiben von Berichten aus verstreuten Notizen. Das Besondere: Anthropic hat Cowork in etwa zehn Tagen entwickelt – größtenteils mit Claude Code selbst. Der Head of Claude Code, Boris Cherny, bestätigte den Zeitrahmen. Das Tool wurde gebaut, weil Nutzer Claude Code bereits für Nicht-Coding-Aufgaben missbrauchten: Urlaubsplanung, Präsentationen, E-Mail-Organisation, sogar
KI drängt ins Gesundheitswesen: OpenAI und Anthropic starten Healthcare-Offensive
16. Januar 2026
Innerhalb von fünf Tagen haben OpenAI und Anthropic ihre Healthcare-Produkte vorgestellt. Die zeitliche Nähe ist kein Zufall – beide Big Player positionieren sich gleichzeitig in einem Markt, der massive Probleme hat und nach Lösungen sucht. Über 40 Millionen Menschen nutzen ChatGPT bereits täglich für Gesundheitsfragen. Jetzt wird aus informeller Nutzung ein formales Geschäftsfeld. OpenAI: Zweispurig ins Gesundheitswesen OpenAI hat am 7. Januar ChatGPT Health für Endnutzer gestartet – ein separater Tab in ChatGPT, in dem Nutzer Gesundheitsdaten aus Apps wie Apple Health, MyFitnessPal oder ihren elektronischen Patientenakten verbinden können. Das System analysiert Laborwerte, erklärt Testergebnisse und hilft bei der Vorbereitung auf Arztgespräche. Einen Tag später folgte OpenAI for Healthcare – die Enterprise-Variante für Krankenhäuser, Versicherungen und Forschungseinrichtungen. Bereits aktiv bei Institutionen wie Boston Children’s Hospital, Cedars-Sinai und Stanford