Anthropic kÀmpft um MilitÀr-Deal nach US-Blacklisting
05.03.2026 - 10:51:33 | boerse-global.deKI-Startup versöhnt sich mit Pentagon â doch der Streit um Ethik bleibt.
Nach einem öffentlichen ZerwĂŒrfnis mit dem US-MilitĂ€r bemĂŒht sich das KI-Unternehmen Anthropic intensiv um eine WiederannĂ€herung an das Verteidigungsministerium. Das bestĂ€tigte die FĂŒhrung des Unternehmens auf einer Investorenkonferenz Anfang MĂ€rz 2026. Hintergrund sind GesprĂ€che, die den jĂŒngsten Vertragsbruch und das folgende Blacklisting beilegen sollen. Die Kehrtwende kommt nur Tage, nachdem die US-Regierung dem kalifornischen Startup schwere nationale SicherheitsbeschrĂ€nkungen auferlegte. Der Konflikt entzĂŒndete sich an der Frage, wie weit der Einsatz von KI-Modellen in Krieg und Ăberwachung gehen darf.
FĂŒhrung signalisiert Dialogbereitschaft
Auf der Morgan Stanley-Konferenz in San Francisco am 3. MĂ€rz gab CEO Dario Amodei Einblick in die angespannte Lage. Laut Medienberichten laufen derzeit GesprĂ€che mit Pentagon-Vertretern, um die Spannungen abzubauen und eine fĂŒr beide Seiten akzeptable Lösung zu finden.
Der Fall Anthropic zeigt, wie schnell technologische Innovationen mit neuen Regularien kollidieren können. Dieser kostenlose Leitfaden erklĂ€rt kompakt, welche Pflichten und Fristen die aktuelle EU-KI-Verordnung fĂŒr Unternehmen vorsieht. KI-Verordnung: Jetzt Umsetzungsleitfaden kostenlos sichern
Amodei betonte vor den Investoren, sein Unternehmen und das MilitĂ€r teilten grundlegende patriotische Werte. Die Gemeinsamkeiten ĂŒberwögen die Differenzen bei weitem. Anthropic sehe sich ausschlieĂlich als Technologieanbieter, nicht als Teil militĂ€rischer Operationen. Diese diplomatische Tonlage steht im starken Kontrast zu den harschen öffentlichen Statements der vergangenen Woche. Offenbar versucht das KI-Labor, seinen Ruf bei staatlichen Auftraggebern zu retten und langwierige Rechtsstreite zu vermeiden.
Vertragsbruch wegen ethischer Bedenken
Die Eskalation nahm Ende Februar 2026 ihren Lauf. Auslöser war eine geplante Partnerschaft mit einem Volumen von rund 185 Millionen Euro. Das Pentagon unter Verteidigungsminister Pete Hegseth bestand darauf, dass die KI fĂŒr jeden rechtmĂ€Ăigen Zweck einsetzbar sein mĂŒsse.
Anthropic weigerte sich, entsprechende Klauseln aus seinen Nutzungsbedingungen zu streichen. Das Unternehmen hĂ€lt an strikten Verboten fest: Seine Claude-KI darf nicht fĂŒr MassenĂŒberwachung US-amerikanischer BĂŒrger oder den Betrieb tödlicher autonomer Waffensysteme eingesetzt werden. Die Technologie sei fĂŒr solche Hochrisiko-Anwendungen nicht zuverlĂ€ssig genug, so die Argumentation, und MassenĂŒberwachung verletze Grundrechte.
Die US-Regierung reagierte umgehend und hart. PrĂ€sident Donald Trump wies alle Bundesbehörden an, Anthropic-Produkte sofort nicht mehr zu nutzen. Minister Hegseth stufte das Startup offiziell als Risiko fĂŒr die Lieferkette der nationalen Sicherheit ein. Experten halten diesen Schritt fĂŒr höchst ungewöhnlich. Diese Einstufung wird normalerweise auslĂ€ndischen Firmen aus rivalisierenden Nationen vorbehalten, nicht einem amerikanischen Unternehmen.
OpenAI profitiert â und die Nutzer strömen zu Claude
Die öffentliche Auseinandersetzung löste sofort Turbulenzen im Technologiemarkt aus. Konkurrent OpenAI verkĂŒndete kurz nach dem Blacklisting einen neuen Vertrag zur Nutzung seiner Systeme in militĂ€rischen Geheimnetzen. OpenAI behauptet, Ă€hnliche Schutzklauseln wie Anthropic vereinbart zu haben. Beobachter Ă€uĂerten jedoch Skepsis angesichts dieser schnellen Kehrtwende des Pentagons.
Paradoxerweise löste die staatliche Ăchtung einen wahren Boom bei Privatnutzern aus. Die Claude-App kletterte am ersten MĂ€rz-Wochenende an die Spitze der US-Charts im Apple App Store und verdrĂ€ngte vorĂŒbergehend ChatGPT. Der massive Nutzeransturm fĂŒhrte am 2. MĂ€rz sogar zu ServerausfĂ€llen. Analysten sehen in dem Streit einen unbeabsichtigten Marketing-Coup: Das Profil des Unternehmens bei BĂŒrgern, die PrivatsphĂ€re und ethische KI schĂ€tzen, wurde enorm gestĂ€rkt.
Grundsatzstreit mit globalen Folgen
Der Konflikt zwischen Silicon Valley und Pentagon offenbart ein wachsendes strukturelles Problem. Die wichtigsten Entscheidungen ĂŒber den ethischen Einsatz von KI werden derzeit in privaten VertrĂ€gen ausgehandelt â nicht durch umfassende Gesetze oder internationale Abkommen.
Rechtsexperten kritisieren die Einstufung Anthropics als Lieferkettenrisiko scharf. Das Gesetz ziele eigentlich auf auslÀndische Gegner ab, die die nationale Sicherheit untergraben wollten. Seine Anwendung auf einen US-Anbieter wegen vertraglicher Differenzen sprengt nach Ansicht von Kritikern den gesetzlichen Rahmen.
WĂ€hrend GroĂkonzerne um ethische Leitplanken ringen, mĂŒssen Unternehmen hierzulande bereits konkrete Compliance-Regeln zur Cyber-Sicherheit erfĂŒllen. Erfahren Sie in diesem Experten-Report, wie Sie Ihre IT-Infrastruktur effizient und rechtssicher gegen moderne Bedrohungen schĂŒtzen. Kostenlosen Cyber-Security-Leitfaden fĂŒr Unternehmen herunterladen
Die Anordnung der Regierung verbietet theoretisch auch bestehenden Pentagon-Partnern jede GeschĂ€ftsbeziehung mit Anthropic. Sollte dies strikt durchgesetzt werden, mĂŒssten groĂe Cloud-Anbieter und Softwarefirmen wĂ€hlen: lukrative MilitĂ€rvertrĂ€ge oder die Partnerschaft mit dem KI-Labor. Diese SekundĂ€rblockade könnte massive Störungen im gesamten Technologie-Ăkosystem auslösen.
Sechs Monate Zeit fĂŒr eine Lösung
Die unmittelbare Zukunft von Anthropics GeschĂ€ft mit dem Staat bleibt ungewiss. Die ursprĂŒngliche Pentagon-Anordnung sieht eine Ăbergangsfrist von maximal sechs Monaten vor. In dieser Zeit soll das MilitĂ€r die Claude-Systeme ersetzen, ohne laufende Operationen zu gefĂ€hrden.
Sollten die von Amodei erwĂ€hnten HintergrundgesprĂ€che scheitern, will das Unternehmen die Einstufung als Sicherheitsrisiko vor einem Bundesgericht anfechten. Ein solcher Rechtsstreit wĂŒrde die KI-Strategie des MilitĂ€rs und die Grenzen der Beschaffungsvollmachten schonungslos öffentlich machen.
Die Tech-Branche beobachtet die Verhandlungen mit Spannung. Das Ergebnis dieses Disputs wird einen wichtigen PrĂ€zedenzfall schaffen. Er wird definieren, wie die US-Regierung mit fĂŒhrenden KI-Laboren umgeht â und das KrĂ€fteverhĂ€ltnis zwischen privater Innovation und staatlichen Sicherheitsinteressen auf Jahre hinaus prĂ€gen.
So schÀtzen die Börsenprofis Aktien ein!
FĂŒr. Immer. Kostenlos.

