Anthropic verklagt US-Regierung nach Streit um KI-Waffen
10.03.2026 - 09:01:51 | boerse-global.deKI-Entwickler Anthropic zieht gegen die US-Regierung vor Gericht. Grund ist ein beispielloser Konflikt um ethische Grenzen fĂŒr MilitĂ€r-KI. Das Pentagon hatte das Unternehmen als Sicherheitsrisiko eingestuft.
Historischer Rechtsstreit um KI-Ethik
Das kalifornische Unternehmen Anthropic hat am 9. MĂ€rz 2026 Klage gegen die US-Regierung eingereicht. Der Grund: Das Verteidigungsministerium stufte den KI-Entwickler als Lieferkettenrisiko ein â eine MaĂnahme, die bisher nur auslĂ€ndischen Gegnern vorbehalten war. Auslöser ist Anthropics Weigerung, seine KI Claude fĂŒr vollautonome Waffensysteme oder MassenĂŒberwachung freizugeben.
WĂ€hrend internationale Rechtsstreitigkeiten die KI-Ethik debattieren, schafft die EU bereits klare Fakten fĂŒr den Unternehmenseinsatz. Dieser kostenlose Leitfaden erklĂ€rt kompakt, welche Pflichten und Fristen die neue KI-Verordnung fĂŒr Ihr Unternehmen bereithĂ€lt. EU-KI-Verordnung kompakt: Jetzt Gratis-Leitfaden sichern
âDie Regierung bestraft uns fĂŒr geschĂŒtzte MeinungsĂ€uĂerungen zur KI-Sicherheitâ, argumentiert das Unternehmen in seinen Klageschriften. Anthropic sieht sich als Opfer einer unrechtmĂ€Ăigen Kampagne der Exekutive und fordert die Aufhebung der Anordnungen von Verteidigungsminister Pete Hegseth und PrĂ€sident Donald Trump.
Bruch nach gescheiterten Verhandlungen
Bis vor kurzem war Anthropics KI-Modell noch das einzige System, das in hochsensiblen MilitÀrnetzen zugelassen war. Diese Position verdankte das Unternehmen einer Partnerschaft mit dem Datenanalysten Palantir aus dem Jahr 2024.
Doch die Zusammenarbeit scheiterte an ethischen Grundsatzfragen. CEO Dario Amodei forderte verbindliche Zusagen: Seine Technologie dĂŒrfe nicht fĂŒr tödliche autonome Waffen ohne menschliche Kontrolle eingesetzt werden. âAktuelle KI-Modelle sind nicht zuverlĂ€ssig genug fĂŒr Leben-und-Tod-Entscheidungenâ, begrĂŒndete das Unternehmen seine Haltung. ZusĂ€tzlich verlangte Anthropic ein Verbot der MassenĂŒberwachung US-amerikanischer BĂŒrger.
Das Pentagon lehnte diese EinschrĂ€nkungen ab. Verteidigungsminister Hegseth bestand darauf, dass KI-Werkzeuge fĂŒr alle rechtmĂ€Ăigen MilitĂ€rzwecke verfĂŒgbar sein mĂŒssten. Ende Februar 2026 brachen die Verhandlungen endgĂŒltig zusammen.
Existenzbedrohende Sanktionen
Die Folgen trafen Anthropic unmittelbar. Am 5. MĂ€rz 2026 verhĂ€ngte das Pentagon die Risikoeinstufung. PrĂ€sident Trump ordnete zudem an, dass alle Bundesbehörden â einschlieĂlich Finanz- und AuĂenministerium â die Nutzung von Anthropic-Technologie sofort einstellen mĂŒssen.
In den Klageschriften spricht das Unternehmen von âunmittelbarem und irreparablem Schadenâ. Hunderte Millionen Dollar an kurzfristigen VertrĂ€gen seien in Gefahr. Die Regierung versuche aktiv, den Unternehmenswert zu zerstören. Branchenberichte bewerten Anthropic derzeit mit rund 350 Milliarden Dollar, bei prognostizierten JahresumsĂ€tzen von 14 Milliarden Dollar fĂŒr 2026.
Branche unter Schock
Der Konflikt sendet Schockwellen durch die Tech-Branche. Er offenbart einen grundlegenden Widerspruch: Silicon Valleys ethische Leitplanken prallen auf die operativen Anforderungen des MilitĂ€rs. Wer hat das letzte Wort ĂŒber KI-EinsatzbeschrĂ€nkungen, wenn die Regierung ein System bereits erworben hat?
Das Verteidigungsministerium sucht bereits nach Alternativen. Berichten zufolge sollen Arbeitslasten von Anthropic zu Modellen von Google, OpenAI und xAI verlagert werden. Diese Verlagerung könnte das Wettbewerbsfeld fĂŒr lukrative RegierungsauftrĂ€ge grundlegend verĂ€ndern â und andere Firmen davon abhalten, strenge NutzungsbeschrĂ€nkungen durchzusetzen.
Der Fall Anthropic zeigt, wie schnell regulatorische und sicherheitspolitische Entscheidungen die KI-Nutzung beeinflussen können. Was Unternehmen jetzt ĂŒber Risikoklassen und Dokumentationsanforderungen wissen mĂŒssen, zeigt dieser praxisnahe Umsetzungsleitfaden. Kostenlosen Ratgeber zur KI-Verordnung herunterladen
Was kommt als NĂ€chstes?
Die Gerichte mĂŒssen nun ĂŒber einstweilige VerfĂŒgungen gegen die Anordnungen entscheiden. Rechtsstreitigkeiten um Befugnisse der Exekutive, verfassungsmĂ€Ăige Redefreiheit und nationale Sicherheitsinteressen stehen bevor.
Anthropic steht vor der akuten Herausforderung, seine kommerziellen Kunden zu beruhigen. Das Unternehmen betont, die BeschrÀnkungen betrÀfen nur MilitÀrauftragnehmer, nicht den normalen Unternehmenseinsatz.
Die Entscheidung in diesem historischen Rechtsstreit wird die Zukunft der KI-Beschaffung prĂ€gen. Sie wird bestimmen, ob und wie Technologieunternehmen ethische Grenzen in nationalen Sicherheitsanwendungen durchsetzen können â mit Auswirkungen fĂŒr die kommenden Jahre.
So schÀtzen die Börsenprofis Aktien ein!
FĂŒr. Immer. Kostenlos.

