Streit um KI: Das Pentagon erklärt Anthropic zur Gefahr für das Militär


Washington hat die KI-Firma nun tatsächlich als Lieferkettenrisiko eingestuft. Ausschlaggebend dafür dürfte auch eine interne E-Mail von Anthropics CEO gewesen sein, in der dieser über die Regierung und den Konkurrenten Open AI herzog.

Die Wege trennen sich nun: die Logos von Anthropic und dem amerikanischen Kriegsministerium.

Dado Ruvic / Reuters

Das Pentagon hat am Donnerstag seinen Worten Taten folgen lassen: Sechs Tage nachdem Kriegsminister Pete Hegseth angekündigt hatte, die KI-Firma Anthropic als Lieferkettenrisiko zu klassifizieren, hat sein Ministerium diesen Schritt nun auch formal vorgenommen. Am Donnerstag informierte es Anthropic darüber, dass es aus Sicht der US-Regierung eine Gefahr für Amerikas nationale Sicherheit darstelle.

Optimieren Sie Ihre Browsereinstellungen

NZZ.ch benötigt JavaScript für wichtige Funktionen. Ihr Browser oder Adblocker verhindert dies momentan.

Bitte passen Sie die Einstellungen an.

Der Schritt ist historisch. Bisher hat Washington nur ausländische Firmen wie Huawei, Kaspersky oder Hikvision so eingestuft, weil die Gefahr besteht, dass sie von ihren Heimatländern für Spionage gegen die USA eingesetzt werden könnten. Dass eine amerikanische Firma nun als derartiges Risiko eingestuft wird, ist ausserordentlich.

Anthropics KI-System namens Claude wird zurzeit über die Datenanalyseplattform Palantir vom amerikanischen Militär eingesetzt, unter anderem bei der Entführung des venezolanischen Präsidenten Maduro, aber auch derzeit gegen Iran. Es war bis vor kurzem die einzige KI-Firma, die auch auf den streng vertraulichen Systemen des Militärs verwendet werden durfte. Präsident Trump hatte vergangene Woche via Truth Social mitgeteilt, dass das Militär nun sechs Monate Zeit habe, um Anthropic aus seinen Systemen zu entfernen.

Konkret bedeutet die Klassifizierung als Lieferkettenrisiko, dass nicht nur das Pentagon Anthropics Produkte nicht mehr nutzen wird, sondern dass dies auch keine Firma mehr tun darf, die mit dem Pentagon Geschäfte macht. Dazu zählen etwa Palantir, Amazon, Google und Lockheed Martin.

Das könnte Anthropics Geschäft enorm schaden. Die Firma macht ihren Jahresumsatz von zuletzt 18 Milliarden Dollar vor allem mit solchen Firmenkunden. Regierungsgeschäfte sind nur ein kleiner Anteil des Umsatzes, ebenso wie das Geschäft mit Endkonsumenten. Auch für die Firmen, die sich nun von Anthropics KI-Produkten trennen müssen, bedeutet dies eine Niederlage. Claude ist gerade im Bereich Programmierung enorm beliebt.

Auch das Pentagon hatte bis vor kurzem Anthropics Produkte gelobt und die Vorzüge im Vergleich zur Konkurrenz unterstrichen. Experten sehen deswegen auch die USA als Verlierer in dem Streit. Die amerikanische Regierung könne nun nicht mehr eines der besten KI-Modelle des Landes nutzen, sagte Cole McFaul von der Denkfabrik Center for Security and Emerging Technology gegenüber «Axios».

Anthropic arbeitet seit Jahren mit der US-Regierung zusammen

Das Pentagon wollte Anthropic dazu zwingen, seine Nutzungsbedingungen so anzupassen, dass künftig alle rechtlich erlaubten Anwendungen mit Claude möglich sind. Die KI-Firma hingegen wollte daran festhalten, dass zwei Fälle – die Verwendungen für autonomes Töten und Massenüberwachung von Amerikanern – weiterhin explizit ausgenommen sind. Als man sich vergangene Woche nicht einigen konnte, platzte nicht nur die direkte Zusammenarbeit mit dem Pentagon, sondern Anthropic wurde durch die Klassifizierung als Lieferkettenrisiko zusätzlich abgestraft.

Anthropics CEO Dario Amodei während des AI Impact Summit im indischen Delhi.

Bhawika Chhabra / Reuters

Bis zuletzt hatte man im Silicon Valley gehofft, dass das Pentagon seinen Worten doch keine Taten folgen lassen würde – auch weil diese Klassifizierung eine enorme Machtdemonstration gegenüber Corporate America darstellt. Washington signalisiert damit seine Bereitschaft, mit aller Härte gegen Firmen vorzugehen, die sich mit der Regierung anlegen.

Selbst der Konkurrent Open AI versuchte nach eigenen Angaben, in dem Streit zu schlichten. «Wir arbeiten daran, die Designierung als Lieferkettenrisiko von Anthropic aufzuheben», sagte Connie LaRossa, die bei Open AI den Bereich Public Policy leitet, noch am Mittwoch bei einer Podiumsdiskussion in San Francisco. «Wir glauben, dass der einzige Gewinner dieser Klassifizierung China wäre. Daher sollte sie nicht auf ein US-Unternehmen mit einem derart wichtigen Produkt angewendet werden.»

Ihr Pendant bei Anthropic, Marina Favaro, beschrieb beim gleichen Anlass, wie umfangreich man seit Jahren mit der amerikanischen Regierung zusammenarbeite, unter anderem um zu verhindern, dass KI-Systeme für die Entwicklung von Nuklearwaffen missbraucht werden könnten. «Ich hoffe, dass wir diese Arbeit fortsetzen können, denn ich denke, das läge im Interesse aller», sagte Favaro am Mittwoch.

«Wir huldigen Trump nicht einem Diktator gleich»

Dass sich diese Hoffnung letztlich zerschlug, dürfte auch an einem Bericht von «The Information» liegen: Die Onlineplattform veröffentlichte am Mittwoch eine interne E-Mail von Anthropics CEO Dario Amodei, die er vergangene Woche an seine Mitarbeiter geschickt hatte, als bekanntgeworden war, dass man sich mit dem Pentagon nicht einigen würde. «Der wahre Grund, warum uns das Kriegsministerium und die Regierung Trump nicht mögen, ist, dass wir Trump nicht einem Diktator gleich huldigen», schrieb er. Auch habe man sich gegen die KI-Agenda Washingtons gestellt und mehr Regulierung gefordert.

Amodei entschuldigte sich zwar am Donnerstag für die Aussage in einem Interview mit dem «Economist». Trotzdem dürfte sie in Washington nicht gut angekommen sein. Die Fehde zwischen Anthropic und dem Pentagon war ohnehin bereits von persönlichen Differenzen zwischen Amodei und dem Verhandlungsführer des Pentagons, Emil Michael, geprägt. Dass sich Amodei in einer E-Mail derart über die Regierung geäussert hatte, könnte durchaus jegliche Bereitschaft zur Versöhnung zerstört haben.

Heftige Kritik an Sam Altman und Open AI

Amodei kritisierte in der E-Mail auch den Konkurrenten Open AI und dessen CEO Sam Altman heftig. Dieser hatte just vergangenen Freitag einen Vertrag mit dem Pentagon für die Nutzung in streng vertraulichen Systemen des Militärs erlangt.

Unter welchen Bedingungen Open AI diesen bekommen hat, ist bis jetzt nicht bekannt: Altman hatte zunächst beteuert, dass man an den «gleichen roten Linien» festhalte wie Anthropic, dann aber relativiert, dass das Pentagon seine KI-Produkte für «alle rechtmässigen Anwendungen» verwenden dürfe. Angeblich habe man nun aber noch einmal nachverhandelt.

Kritiker, unter ihnen auch Amodei, unterstellen, dass das letztlich bedeute, dass das Pentagon die KI nun auch für Massenüberwachung an Amerikanern und für die Entwicklung autonom tötender Waffen verwenden dürfe. Nach wie vor ist der genaue Wortlaut der Vereinbarung nicht publik.

Das Pentagon verweist darauf, dass beides ohnehin nicht rechtmässig wäre. Tatsächlich handelt es sich dabei aber um Grauzonen: Die US-Regierung darf von kommerziellen Datenhändlern massenweise Informationen zu Amerikanern aufkaufen und tut dies seit einigen Monaten auch verstärkt. KI könnte nun dabei helfen, all diese Informationen zusammenzuführen und eine Datenbank mit Profilen der Bürger zu erstellen. Genauso könnte bei der Frage, ob das US-Militär autonom tötende Waffen verwendet, das Pentagon theoretisch jederzeit die derzeit geltende Regel ändern, dass ein Mensch im Entscheidungsprozess involviert sein muss.

Der Streit wirft ein Schlaglicht auf mehrere Grundsatzfragen: Wer entscheidet darüber, wie und wofür eine derart mächtige und sich ständig verbessernde Technologie wie KI verwendet werden darf – der Staat, die dahinterstehenden Firmen oder die Bürger, die mit den Folgen leben müssen? Was geschieht, wenn sich die Parteien uneins sind? Sollte eine Regierung mit aller Härte des Staats gegen eine unliebsame Firma vorgehen – ähnlich, wie sonst nur China abtrünnige Tech-Firmen abstraft? Die Fehde zwischen Anthropic und dem Pentagon trägt diese Fragen in die Öffentlichkeit.


Leave a Comment

Your email address will not be published. Required fields are marked *