Anthropic: US-MilitÀr nutzt verbotene KI im Iran-Einsatz
01.03.2026 - 11:48:44 | boerse-global.deTrotz eines föderalen Verbots setzt das Pentagon im Konflikt mit Iran weiter auf die KI-Software von Anthropic. Der Grund: Die Technologie ist tief in militÀrische Systeme verwoben.
Ultimatum und sofortiges Verbot
Die Eskalation war absehbar. Am Freitag, dem 27. Februar 2026, stellte das US-Verteidigungsministerium dem KI-Entwickler Anthropic ein Ultimatum: Die ethischen Sicherheitsvorkehrungen der KI âClaudeâ mussten fallen. Das MilitĂ€r forderte uneingeschrĂ€nkten Zugriff fĂŒr alle rechtmĂ€Ăigen Zwecke â inklusive MassenĂŒberwachung und autonomer Waffensysteme. Als das Unternehmen sich weigerte, zog PrĂ€sident Donald Trump die ReiĂleine. Ăber soziale Medien ordnete er den sofortigen Stopp der Technologie in allen Bundesbehörden an. Verteidigungsminister Pete Hegseth stufte Anthropic als Risiko fĂŒr die Lieferkette der nationalen Sicherheit ein â eine bislang auslĂ€ndischen Gegnern vorbehaltene MaĂnahme.
WĂ€hrend staatliche Institutionen ĂŒber ethische Leitplanken streiten, mĂŒssen Unternehmen bereits heute konkrete gesetzliche Vorgaben fĂŒr den Einsatz kĂŒnstlicher Intelligenz erfĂŒllen. Dieser kostenlose Leitfaden erklĂ€rt Ihnen verstĂ€ndlich die Anforderungen und Fristen der neuen EU-KI-Verordnung. EU-KI-Verordnung kompakt: Jetzt Gratis-Leitfaden sichern
Doch das Verbot stieĂ auf harte RealitĂ€ten. Wegen der tiefen Integration in geheime MilitĂ€rinfrastruktur gewĂ€hrte die Regierung eine sechsmonatige Ăbergangsfrist. Diese sollte kritische Operationen schĂŒtzen. Sie erwies sich jedoch schon Stunden nach dem Verbot als Schlupfloch.
Verbotene KI im Live-Kampfeinsatz
Bereits am Wochenende des 1. MĂ€rz 2026, wĂ€hrend Luftangriffen auf Iran, nutzte das US-MilitĂ€r die eigentlich verbotene KI. Das U.S. Central Command setzte Claude fĂŒr Zielidentifikation, AufklĂ€rungsauswertungen und Gefechtssimulationen ein. Dies unterstrich die immense AbhĂ€ngigkeit der StreitkrĂ€fte von der Technologie. Das System gilt als das am weitesten verbreitete KI-Modell im MilitĂ€r und ist das einzige, das fĂŒr die höchsten Geheimnetze freigegeben ist.
Die fortgesetzte Nutzung offenbart ein grundlegendes Dilemma: Wie kann man eine Technologie sofort verbieten, die zur kritischen Infrastruktur geworden ist? MilitĂ€rfĂŒhrer betonten, die Auslaufphase sei zwingend notwendig, um laufende Kampfoperationen nicht zu gefĂ€hrden.
Tief verwurzelt im âMaven Smart Systemâ
Die anhaltende AbhĂ€ngigkeit hat einen klaren Grund. Claude ist Kernbestandteil des âMaven Smartâ-Systems, einer gemeinsam mit Palantir Technologies entwickelten GefechtsfĂŒhrungsplattform. Sie analysiert riesige Datenströme verschiedener Sensoren und schafft so ein einheitliches Lagebild fĂŒr Truppen. Die KI aus diesen etablierten AblĂ€ufen zu entfernen, wĂ€re ein logistischer Albtraum.
Der Einsatz moderner Technologien wie KI bringt nicht nur operative Vorteile, sondern auch neue regulatorische Pflichten und Haftungsrisiken fĂŒr die GeschĂ€ftsfĂŒhrung mit sich. Erfahren Sie in diesem Experten-Report, welche neuen Gesetze Ihre Cyber-Security-Strategie im Jahr 2024 maĂgeblich beeinflussen. Experten-Report zu Cyber Security & KI-Gesetzen kostenlos herunterladen
Experten warnen, ein Austausch könnte die militĂ€rische KI-Entwicklung um ein halbes Jahr zurĂŒckwerfen. Soldaten sind auf die aktuelle OberflĂ€che trainiert, Workflows sind darauf ausgelegt. Der nun verhĂ€ngte Lieferketten-Status zwingt RĂŒstungsunternehmen, unter hohem Druck alternative Modelle zu finden, die nahtlos in geheime Netze integriert werden können.
OpenAI springt ein â und die Deabtte eskaliert
Konkurrent OpenAI nutzte die Gelegenheit sofort. Noch am Abend des Verbots verkĂŒndete dessen CEO einen Deal mit dem Pentagon. Seine Modelle dĂŒrfen nun auf geheimen MilitĂ€rnetzen laufen â angeblich mit denselben ethischen Sicherheitszusagen, die Anthropic einforderte. Der schnelle Wechsel zeigt den erbitterten Wettbewerb um lukrative RĂŒstungsauftrĂ€ge.
Doch der Fall hat eine breitere Debatte entfacht. Gewerkschaften mit Hunderttausenden Tech-Mitarbeitern in Silicon Valley fordern in offenen Briefen strikte ethische rote Linien. Der interne Widerstand gegen uneingeschrĂ€nkte MilitĂ€ranwendungen wĂ€chst. Die Frage steht im Raum: DĂŒrfen private Unternehmen dem Staat Vorgaben machen?
PrĂ€zedenzfall fĂŒr die Zukunft
Der Konflikt schafft einen kritischen PrĂ€zedenzfall fĂŒr die Beziehung zwischen Staat und Tech-Branche. Juristen erwarten einen langwierigen Rechtsstreit ĂŒber die Befugnis des Verteidigungsministeriums, privaten Entwicklern Nutzungsbedingungen zu diktieren. Die Regierung hatte sogar mit dem Defense Production Act gedroht, um Compliance zu erzwingen.
Kurzfristig muss das Pentagon seine Netze innerhalb von sechs Monaten umstellen. Analysten warnen vor erheblichen operativen Risiken in dieser heiklen Phase, besonders bei anhaltenden Spannungen im Nahen Osten. Letztlich zeigt der Disput den fundamentalen Zielkonflikt: Das MilitĂ€r fordert technologische Ăberlegenheit ohne EinschrĂ€nkungen, die Tech-Branche pocht zunehmend auf KI-Sicherheit und ethische Leitplanken.
So schÀtzen die Börsenprofis Aktien ein!
FĂŒr. Immer. Kostenlos.

