KI-Notizen: Alibaba, Chips und britische Koalitionen

Was diese Woche sonst noch passiert ist – drei Entwicklungen, die ich kurz festhalten will. Alibaba veröffentlicht Qwen3.5 Am 17. Februar hat Alibaba das nächste Modell seiner Qwen-Familie veröffentlicht: Qwen3.5 mit 397 Milliarden Parametern. Alibaba behauptet, das Modell halte Schritt mit führenden westlichen Modellen von OpenAI, Anthropic und Google DeepMind. Die Benchmarks sind selbst gemessen – das sollte man immer mitdenken, wenn Unternehmen ihre eigenen Ergebnisse zitieren. Was mich daran interessiert: Qwen3.5 unterstützt 201 Sprachen und Dialekte, deutlich mehr als das Vorgängermodell. Das ist keine technische Spielerei, sondern ein Signal über Alibabas Ambitionen. Sie bauen nicht für den chinesischen Markt. Sie bauen für globale Expansion, besonders in Märkten, wo westliche Anbieter sprachlich schwach aufgestellt sind. Es ist das dritte oder vierte chinesische Modell in kurzer Zeit, das ich … Weiterlesen …

Wenn Benchmarks nicht mehr reichen: Der KI-Wettlauf verlagert sich

Am 5. Februar hat Perplexity eine Funktion gelauncht, die auf den ersten Blick wie ein nettes Feature aussieht. Model Council lässt drei Frontier-Modelle parallel auf dieselbe Frage antworten – Claude Opus 4.6, GPT-5.2, Gemini 3.0 – und synthetisiert die Ergebnisse. Zeigt, wo sie übereinstimmen, wo sie sich widersprechen, was jedes Modell einzigartig beiträgt. Aber das ist mehr als nur ein Feature. Es ist ein Signal. Perplexity sagt damit: Es gibt kein „bestes Modell“. Die Frage, wer auf LMArena ganz oben steht, ist weniger relevant als die Frage, welche unterschiedlichen Perspektiven zusammen ein besseres Ergebnis liefern. Das ist das Gegenteil vom Wettrennen. Es ist ein Eingeständnis, dass der ganze „wer ist vorne“-Diskurs vielleicht die falsche Fragestellung war. Und genau in derselben Woche, in der Perplexity dieses Signal sendet, eskaliert … Weiterlesen …

Eskalation auf drei Ebenen: Governance, Regulierung, Wettbewerb

Governance-Krise: 76 Prozent ohne Überblick Eine Umfrage von Informatica, einem Unternehmen für Datenmanagement, unter 600 Chief Data Officers zeigt ein strukturelles Problem: 76 Prozent können den AI-Einsatz ihrer Mitarbeiter nicht überwachen. Nicht weil sie es nicht wollen – sondern weil Unternehmen Generative AI schneller eingesetzt haben, als sie Kontrollstrukturen aufbauen konnten. Das erklärt, warum AI-Pilotprojekte oft nicht skalieren. Es ist nicht die Technologie, die scheitert. Es ist die fehlende Struktur drumherum. Unternehmen vertrauen ihren Daten genug, um AI zu nutzen – aber sie haben keine Ahnung, was ihre Mitarbeiter mit diesen Daten tatsächlich machen. Was mich daran ärgert: Das ist vorhersehbar. Natürlich passiert das, wenn man Technologie schneller verteilt als man sie versteht. Und trotzdem wird genau dieser Fehler wiederholt – bei jedem neuen Modell, bei jedem neuen … Weiterlesen …