Abo

„Rechtswidrig und willkürlich“Richterin stoppt Pentagon-Rache an kritischer KI-Firma

Anthropic

Copyright: Andrej Sokolow/dpa

Antrhopic will im Streit mit dem US-Verteidigungsministerium nicht klein beigeben. (Archivbild)

Ein Tech-Unternehmen stellt sich quer gegen das US-Militär. Jetzt hat eine Richterin ein Machtwort gesprochen.

Ein wichtiger Teilerfolg für die KI-Schmiede Anthropic in der Auseinandersetzung mit dem Pentagon. Ein Gericht hat dem Vorgehen der US-Regierung vorerst einen Riegel vorgeschoben. Eine Richterin stoppte per einstweiliger Verfügung die Klassifizierung der Firma als Risiko für die nationale Sicherheit. Die Verfügung wird allerdings erst nach sieben Tagen wirksam, um der US-Regierung Zeit zu geben, vor einem Berufungsgericht dagegen vorzugehen.

Worum geht's bei dem Zoff? Anthropic pocht darauf, dass seine KI-Technologie weder für die massenhafte Überwachung amerikanischer Bürger noch in autonomen Waffensystemen zum Einsatz kommen darf. Das Verteidigungsministerium der USA verlangt im Gegensatz dazu die Erlaubnis für „jede rechtmäßige Nutzung“. Man lasse sich von keiner Firma die Regeln diktieren, heißt es von dort.

US-Regierung eskaliert – und stuft Firma als Risiko ein

Da Anthropic bei seiner Haltung blieb, machte das Pentagon ernst. Die Firma wurde zum „Supply-Chain Risk to National Security“ (was einem Lieferketten-Risiko für die nationale Sicherheit entspricht) deklariert, wie die dpa meldet. Daraufhin gab es eine Anweisung von Präsident Donald Trump: Sämtliche US-Bundesbehörden sollten die Verwendung von Anthropic-Software einstellen.

Verteidigungsminister Pete Hegseth erhöhte den Druck zusätzlich. Er forderte, dass alle Firmen, die mit dem US-Militär Geschäfte machen wollen, ihre Verbindungen zu Anthropic beenden müssen. Ein Vorgehen, das für ein amerikanisches Unternehmen extrem selten ist und es faktisch von sämtlichen Regierungsaufträgen abschneidet.

Gerichtsurteil aus San Francisco: „Rechtswidrig und willkürlich“

Doch dann die Kehrtwende in San Francisco: Richterin Rita Lin stoppte die Maßnahme mit einer einstweiligen Verfügung. Sie argumentierte, dass es dem Verteidigungsministerium natürlich freistehe, auf Produkte von Anthropic zu verzichten. Die Aktion der Regierung wirke jedoch wie eine Bestrafung des Unternehmens für dessen öffentliche Kritik. Das wiederum könnte eine Verletzung der verfassungsmäßig garantierten Redefreiheit darstellen.

Die Richterin begründete ihre Entscheidung damit, dass die Einstufung als Risiko für die Lieferkette vermutlich „rechtswidrig und willkürlich“ sei.

Anthropic-Boss warnt: KI noch nicht reif für Waffen

Dario Amodei, der Chef von Anthropic, spricht eine deutliche Warnung aus. Künstliche Intelligenz könne verstreute Informationen über Personen im Netz automatisiert zu einem umfassenden Bild ihres Lebens zusammensetzen. Zugleich sei die KI aber noch zu unzuverlässig, um sie in komplett autonomen Waffensystemen zu verwenden. In einem Blog-Eintrag stellte Amodei klar: „Wir werden nicht wissentlich ein Produkt liefern, das Amerikas Kämpfer und Zivilisten in Gefahr bringt“. (red)

Bislang war Anthropic das einzige Unternehmen im KI-Sektor, dessen Programme für die Nutzung in als vertraulich klassifizierten Bereichen des US-Militärs zugelassen waren. Diese Lücke schließt jetzt ein Wettbewerber: Nach den Maßnahmen gegen Anthropic hat der ChatGPT-Entwickler OpenAI einen Vertrag mit dem Verteidigungsministerium abgeschlossen.

Dieser Inhalt wurde mit Hilfe von KI erstellt.

Außenminister-Treffen der G7

Zoff um den Iran-Krieg

Deutscher Außenminister stellt bei G7-Treffen klare Forderung