Der Mann mit dem Knopf

Am 7. April hat der New Yorker einen Artikel veröffentlicht, der eine Frage stellt, die OpenAIs eigenes Board vor zweieinhalb Jahren zu beantworten versuchte, und daran scheiterte: Kann man Sam Altman vertrauen?

Die Recherche von Ronan Farrow und Andrew Marantz basiert auf über 100 Interviews, mehr als 200 Seiten privater Notizen von Dario Amodei, dem heutigen CEO von Anthropic, der damals noch bei OpenAI arbeitete, und einem bisher unveröffentlichten Memo des ehemaligen Chefwissenschaftlers Ilya Sutskever: rund 70 Seiten Slack-Nachrichten, HR-Dokumente und Analysen, die Sutskever im Herbst 2023 zusammengestellt hatte. Das erste Element seiner Liste, überschrieben mit dem Satz „Sam exhibits a consistent pattern of …“, lautet: Lügen.

Was der Artikel behauptet

Die Vorwürfe sind weitreichend. Altman soll das Board über die Sicherheitsgenehmigungen für GPT-4 falsch informiert haben: Er versicherte, bestimmte Funktionen seien von einem Sicherheitsgremium geprüft worden, was sich als unwahr herausstellte. Er soll eine entscheidende Klausel im Microsoft-Vertrag von 2019 unterdrückt haben, die Amodei als Kern von OpenAIs Sicherheitsphilosophie betrachtete, und sie dann, als er darauf angesprochen wurde, schlicht geleugnet haben. Amodei musste sie Altman wortwörtlich vorlesen.

Das Superalignment-Team, dem OpenAI öffentlich 20 Prozent seiner Rechenkapazität versprochen hatte, um die existenziellen Risiken fortgeschrittener KI zu erforschen, soll in Wirklichkeit zwischen einem und zwei Prozent bekommen haben, auf der ältesten Hardware. Es wurde 2024 aufgelöst, ohne sein Ziel erreicht zu haben. Als ein New-Yorker-Journalist fragte, wer bei OpenAI an existenzieller Sicherheit arbeite, soll ein Pressesprecher geantwortet haben: „Was meinen Sie mit ‚existenzieller Sicherheit‘? Das ist nicht, äh, ein Ding.“

Altman bestreitet Teile der Darstellung oder gibt an, sich nicht zu erinnern. Viele der schärfsten Behauptungen stammen aus anonymen Quellen ehemaliger Mitarbeiter. Kein Gerichtsurteil, kein regulatorischer Befund. Das muss gesagt werden. Gleichzeitig: Die Quellen sind keine Unbekannten. Sutskever. Amodei. Menschen, die OpenAI aufgebaut haben und es aus dem Inneren kannten.

Was mich daran wirklich stört

Es geht mir nicht darum, ob Altman ein guter oder schlechter Mensch ist. Die Frage ist strukturell: Das Sicherheitsversprechen von OpenAI war nie wirklich ein institutionelles Projekt, sondern ein Versprechen, das an Personen hing. Chartas, Non-Profit-Strukturen, Superalignment-Teams: All das waren institutionelle Sicherungen, die laut dem New Yorker systematisch abgebaut wurden, sobald sie mit Wachstum kollidierten.

Gleichzeitig will Altman jetzt an die Börse. Q4 2026 ist sein Ziel. Das Unternehmen verbrennt laut internen Projektionen 14 Milliarden Dollar allein in diesem Jahr, hat sich zu 600 Milliarden in Server-Infrastruktur verpflichtet, und die Gewinnschwelle ist erst für 2030 geplant. CFO Sarah Friar hat Kollegen intern gewarnt, OpenAI sei dafür noch nicht bereit, weder organisatorisch noch finanziell. Laut The Information hat Altman sie daraufhin aus wichtigen Meetings ausgeschlossen. Bei einem Treffen mit einem Großinvestor über Server-Beschaffung war sie nicht eingeladen. Anwesende nannten ihre Abwesenheit „auffällig und peinlich“.

Der Zeitpunkt des New-Yorker-Artikels ist kein Zufall. Es ist der Moment, wo Altman versucht, sein Experiment an die Öffentlichkeit zu verkaufen. Bisher war die Frage nach seinem Führungsstil eine Insider-Debatte. Mit einem Börsengang wird sie zur Frage öffentlicher Verantwortung.

OpenAI wurde gegründet mit dem Argument, KI sei zu mächtig, um sie gewöhnlichen Unternehmensinstinkten zu überlassen. Der New Yorker fragt: Was passiert, wenn der Mann an der Spitze dieser Mission von seinen engsten Mitstreitern für fundamental unzuverlässig gehalten wird und trotzdem weiter macht? Die Antwort, die der Artikel gibt, ist keine beruhigende. Und ich finde, sie verdient mehr Aufmerksamkeit, als sie bisher bekommt.

Schreibe einen Kommentar

9 − acht =