Der Flickenteppich

Elon Musks KI-Unternehmen xAI hat am 9. April beim Bundesgericht in Colorado Klage eingereicht, gegen ein Gesetz, das algorithmische Diskriminierung verbieten soll. Das Gesetz, Senate Bill 24-205, tritt am 30. Juni in Kraft und verpflichtet Entwickler sogenannter „Hochrisiko-KI-Systeme“, Risiken zu bewerten, offenzulegen und zu mindern, in Bereichen wie Beschäftigung, Wohnen, Gesundheit und Bildung.

xAIs Argument: Das Gesetz verletze den ersten Zusatzartikel der US-Verfassung, die Redefreiheit. Es zwinge das Unternehmen, sein Modell Grok so zu verändern, dass es die Ansichten des Staates Colorado zu Diversität und Diskriminierung widerspiegele, statt „maximal wahrheitssuchend“ zu sein.

Worum es wirklich geht

Colorado ist der erste US-Bundesstaat mit einem solchen umfassenden KI-Gesetz. Juristisch ist das ein echtes Testfeld. Aber ich glaube nicht, dass es Musk primär um Colorado geht. Die eigentliche Zielscheibe ist das Prinzip staatlicher KI-Regulierung überhaupt. Ein Sieg hier schafft Präzedenz. Andere Bundesstaaten, die ähnliche Gesetze planen, würden es zweimal überlegen.

Das strategische Ziel dahinter ist, dass KI-Regulierung auf Bundesebene stattfindet, unter einer Administration, in der Musk und sein Umfeld erheblichen Einfluss haben. David Sacks, Trumps ehemaliger KI-Beauftragter und inzwischen im Beratergremium des Präsidenten, hat öffentlich für ein einheitliches nationales Regelwerk argumentiert. Ein Flickenteppich aus 50 verschiedenen Staatsgesetzen wäre für Musk unkontrollierbarer als ein einzelnes nationales Regelwerk, das von Vertrauten mitgestaltet wird. Die Klage ist also weniger eine Verteidigung von Redefreiheit als eine Positionierung im Kampf darum, wer die Spielregeln schreibt.

Das Redefreiheits-Argument und was dahintersteckt

Was xAI beansprucht, ist juristisch gesehen nicht Groks Redefreiheit, sondern die des Unternehmens. Das ist ein Unterschied, der bewusst verwischt wird. Das Modell wird zum Sprachrohr, nicht zum Subjekt. Die ernsthafte philosophische Frage, ob KI-Systeme selbst so etwas wie eine Stimme haben könnten, die schutzwürdig wäre, wird hier instrumentalisiert, um einem Unternehmen zu ermöglichen, weiterzumachen wie bisher.

Was Colorado tatsächlich will, ist anti-diskriminierendes Recht, angewendet auf neue Technologie. Das Gesetz soll verhindern, dass KI-Systeme Menschen bei Einstellungsverfahren, Wohnungssuche oder Kreditvergabe benachteiligen. Das ist kein Eingriff in politische Meinungsfreiheit. Es ist der Versuch, bestehende Diskriminierungsverbote auf Algorithmen auszudehnen.

Dass xAI das als Angriff auf „Wahrheitssuche“ rahmt, ist bemerkenswert, wenn man bedenkt, dass Grok in der Vergangenheit nachweislich rassistische, sexistische und antisemitische Inhalte produziert hat. Das Unternehmen, das jetzt Neutralität als Schutzargument anführt, ist dasselbe, dessen Modell wiederholt durch das Gegenteil aufgefallen ist. „Wir dürfen nicht gezwungen werden, das zu ändern“ ist eine beunruhigende Aussage, unabhängig davon, wie sie juristisch verpackt wird.

Die größere Frage

Was mich an dieser Klage am meisten beschäftigt, ist die Rahmensetzung selbst. Zum ersten Mal beansprucht ein KI-Unternehmen explizit, sein Modell habe so etwas wie eine eigene Stimme, die vor staatlichem Eingriff zu schützen sei. Ob das juristisch trägt oder nicht, verändert die Debatte. Plötzlich ist nicht mehr nur die Frage, wer KI reguliert, sondern ob KI überhaupt reguliert werden darf. Das ist eine Verschiebung, die weit über Colorado hinausgeht. Und sie kommt von einem Unternehmen, dessen Modell gezeigt hat, was passiert, wenn niemand eingreift.

Schreibe einen Kommentar

drei × eins =