US-MilitÀr, Anthropic

US-MilitÀr verbietet KI von Anthropic nach Ethik-Konflikt

04.03.2026 - 01:09:26 | boerse-global.de

Die US-Regierung stuft Anthropic als Sicherheitsrisiko ein, nachdem das KI-Unternehmen die Freigabe fĂŒr autonome Waffen verweigerte. Ein laufender Vertrag und die militĂ€rische Infrastruktur sind betroffen.

US-MilitĂ€r verbietet KI von Anthropic nach Ethik-Konflikt - Foto: ĂŒber boerse-global.de
US-MilitĂ€r verbietet KI von Anthropic nach Ethik-Konflikt - Foto: ĂŒber boerse-global.de

Die US-Regierung hat alle Behörden angewiesen, kĂŒnstliche Intelligenz des Unternehmens Anthropic nicht mehr zu nutzen. Grund ist ein unĂŒberbrĂŒckbarer Streit ĂŒber ethische Grenzen beim militĂ€rischen Einsatz. Die als Lieferkettenrisiko eingestufte Firma weigerte sich, ihre KI fĂŒr MassenĂŒberwachung oder autonome Waffen freizugeben.

Ethische Prinzipien gegen militÀrische Forderungen

Der Konflikt eskalierte, als Verteidigungsminister Pete Hegseth von Anthropic verlangte, seine KI-Modelle ohne EinschrĂ€nkung fĂŒr alle legalen Zwecke freizugeben. CEO Dario Amodei lehnte dies Ende Februar 2026 ab und hielt an den strikten Verboten fĂŒr autonome Waffensysteme und innere Überwachung fest. Zuvor hatte das Pentagon erwogen, das Verteidigungsproduktionsgesetz zu nutzen, um die Sicherheitsvorkehrungen des Unternehmens zu umgehen.

Anzeige

Der beschriebene Konflikt verdeutlicht, wie schnell sich der rechtliche Rahmen fĂŒr KI-Systeme Ă€ndern kann. Dieser kostenlose Leitfaden erklĂ€rt kompakt die Anforderungen und Pflichten der neuen EU-KI-Verordnung fĂŒr Unternehmen. EU-KI-Verordnung kompakt: Jetzt Gratis-E-Book sichern

Stattdessen erklĂ€rte das MilitĂ€r Anthropic nun zum nationalen Sicherheitsrisiko – eine Maßnahme, die normalerweise auslĂ€ndischen Gegnern vorbehalten ist. Die Anordnung untersagt allen Vertragspartnern des US-MilitĂ€rs geschĂ€ftliche Beziehungen zu dem KI-Labor. Das bedroht nicht nur einen bestehenden Vertrag im Wert von rund 185 Millionen Euro, sondern zwingt auch Cloud-Giganten wie Amazon Web Services und Google zu einer schwierigen Entscheidung: die Verbindung zu Anthropic kappen oder lukrative RegierungsauftrĂ€ge riskieren.

Anthropic kĂŒndigte an, die Einstufung vor Bundesgerichten anzufechten. Juristen halten die rechtliche Grundlage des Verbots fĂŒr Ă€ußerst fragwĂŒrdig.

MilitÀrische AbhÀngigkeit und technische Grenzen

Das sechsmonatige Auslaufen der Anthropic-Technologie legt tiefe AbhĂ€ngigkeiten in geheimen MilitĂ€rnetzwerken offen. Dessen KI-Modell Claude war zuvor als einziges großes Sprachmodell fĂŒr den umfassenden Einsatz in klassifizierten Systemen des Verteidigungsministeriums zugelassen. Laut Pentagon-Cheftechnologe Emil Michael ist das MilitĂ€r fĂŒr komplexe Logistik, Lieferkettenoptimierung und die schnelle Auswertung von Geheimdienstinformationen stark auf Claude angewiesen.

Trotz sofortigen Nutzungsstopps könnte die Trennung von der Infrastruktur Monate dauern. Medienberichten zufolge setzte das US-MilitĂ€r Claude sogar noch wĂ€hrend jĂŒngster Konflikte im Nahen Osten fĂŒr Operationsplanungen ein.

Der Streit entfachte eine grundsĂ€tzliche Debatte ĂŒber die ZuverlĂ€ssigkeit generativer KI in Kriegsszenarien. „Die KI-Branche hat die FĂ€higkeiten ihrer Modelle ĂŒberhöht, um VerteidigungsauftrĂ€ge zu erhalten“, kritisiert Missy Cummings, Robotik-Expertin und ehemalige Marine-Pilotin. Ihre Forschung zeigt: Aktuelle Chatbot-Technologien sind nicht zuverlĂ€ssig genug, um Waffensysteme zu steuern, ohne schwere Fehler und zivile Opfer zu riskieren.

Marktverschiebungen und OpenAIs Opportunismus

Die öffentliche Kontroverse löste erhebliche Verschiebungen im KI-Markt aus. Die Verbraucherstimmung schwenkte zugunsten von Anthropics ethischer Haltung. Anfang MĂ€rz 2026 ĂŒberstiegen die Downloads der Claude-App in den USA erstmals die des Konkurrenzprodukts ChatGPT.

OpenAI nutzte die Gelegenheit und schloss Ende Februar einen eigenen Geheimdienst-Vertrag mit dem Pentagon ab – als direkter Ersatz fĂŒr Claude. Interessanterweise betonte OpenAI, Ă€hnliche ethische Schranken gegen MassenĂŒberwachung und autonome Waffen vereinbart zu haben. Verteidigungsexperten fragen sich nun, warum das Pentagon bei OpenAI akzeptierte, was es bei Anthropic ablehnte.

Die schnelle Integration fĂŒhrte zu einer Flut negativer Bewertungen fĂŒr die ChatGPT-App. OpenAI-CEO Sam Altman rĂ€umte ein, der Rollout wirke opportunistisch und schlecht umgesetzt. Er startete Diskussionen ĂŒber engere Partnerschaften zwischen Regierungen und KI-Entwicklern und erwog sogar eine mögliche Verstaatlichung von Projekten zur kĂŒnstlichen allgemeinen Intelligenz.

Anzeige

WĂ€hrend Regierungen ĂŒber die Verstaatlichung von KI diskutieren, mĂŒssen Unternehmen ihre eigene digitale Infrastruktur vor neuen Bedrohungen schĂŒtzen. Erfahren Sie in diesem Experten-Report, wie Sie Ihre Cyber-Security ohne Budget-Explosion stĂ€rken. Effektive Strategien gegen Cyberangriffe kostenlos entdecken

Paradigmenwechsel fĂŒr KI-Beschaffung

Das Vorgehen gegen Anthropic markiert einen Wendepunkt in der Beschaffung und Regulierung von KI durch die US-Regierung. Das Finanzministerium und die Beschaffungsbehörde GSA beenden bereits ihre Vereinbarungen mit dem Unternehmen und nehmen es aus den federalen Beschaffungslisten. Die MilitÀrsperre weitet sich damit auf zivile Bundesbehörden aus.

Vertragsunternehmen der Verteidigung stehen unter Druck, ihre Software-Lieferketten zu ĂŒberprĂŒfen und Claude aus ihren ArbeitsablĂ€ufen zu entfernen. Global unterstreicht der Disput die wachsende Kluft zwischen den nationalen AnsĂ€tzen zu militĂ€rischer KI. WĂ€hrend die UN weiter zu globalen ethischen Leitplanken aufruft, demonstrieren die USA ihren Willen zur technologischen Dominanz ohne EinschrĂ€nkungen.

Der kommende Rechtsstreit wird wegweisende PrĂ€zedenzfĂ€lle fĂŒr öffentlich-private Partnerschaften schaffen. Die Kernfrage bleibt: Wer setzt die ethischen Grenzen fĂŒr kĂŒnstliche Intelligenz in der nationalen Sicherheit – demokratische Regierungen oder private Technologieunternehmen?

So schÀtzen die Börsenprofis Aktien ein!

<b>So schÀtzen die Börsenprofis   Aktien ein!</b>
Seit 2005 liefert der Börsenbrief trading-notes verlĂ€ssliche Anlage-Empfehlungen – dreimal pro Woche, direkt ins Postfach. 100% kostenlos. 100% Expertenwissen. Trage einfach deine E-Mail Adresse ein und verpasse ab heute keine Top-Chance mehr. Jetzt abonnieren.
FĂŒr. Immer. Kostenlos.
de | boerse | 68632464 |