Anthropic, US-MilitÀr

Anthropic verweigert US-MilitÀr Zugriff auf KI ohne SicherheitsbeschrÀnkungen

27.02.2026 - 06:49:29 | boerse-global.de

Der KI-Entwickler Anthropic lehnt es ab, Sicherheitsvorkehrungen seiner Modelle fĂŒr militĂ€rische Zwecke zu entfernen. Die Weigerung gefĂ€hrdet VertrĂ€ge im Wert von 200 Millionen Euro und könnte einen PrĂ€zedenzfall schaffen.

Anthropic verweigert US-MilitĂ€r Zugriff auf KI ohne SicherheitsbeschrĂ€nkungen - Foto: ĂŒber boerse-global.de
Anthropic verweigert US-MilitĂ€r Zugriff auf KI ohne SicherheitsbeschrĂ€nkungen - Foto: ĂŒber boerse-global.de

KI-Entwickler Anthropic stellt sich gegen eine Forderung des US-Verteidigungsministeriums, die Sicherheitsvorkehrungen seiner KI-Modelle fĂŒr militĂ€rische Zwecke zu entfernen. Die Weigerung des Unternehmens, das eine ethische Linie bei MassenĂŒberwachung und autonomen Waffen zieht, könnte VertrĂ€ge im Wert von 200 Millionen Euro gefĂ€hrden und einen PrĂ€zedenzfall fĂŒr die Tech-Branche schaffen.

Ethische rote Linien im Konflikt mit dem Pentagon

Anzeige

WĂ€hrend Tech-Giganten ĂŒber ethische Grenzen streiten, schafft die neue EU-Gesetzgebung bereits klare Fakten fĂŒr den Einsatz kĂŒnstlicher Intelligenz. Dieser kostenlose Leitfaden erklĂ€rt Ihnen die wichtigsten Anforderungen und Fristen der aktuellen KI-Verordnung. EU-KI-Verordnung: Jetzt kostenloses E-Book sichern

Im Zentrum des Streits stehen zwei nicht verhandelbare Prinzipien von Anthropic. Das Unternehmen verbietet den Einsatz seiner Claude-KI fĂŒr die MassenĂŒberwachung amerikanischer BĂŒrger und fĂŒr vollautonome Waffensysteme ohne menschliche Kontrolle. „Wir können dem Verlangen des MilitĂ€rs nach bedingonloadoser Nutzung nicht guten Gewissens zustimmen“, erklĂ€rte CEO Dario Amodei.

Das Verteidigungsministerium hatte bis heute Abend (27. Februar 2026, 17:01 Uhr Ortszeit) ein Ultimatum gestellt. Die geforderten Kompromisse enthielten aus Sicht von Anthropic jedoch rechtliche Schlupflöcher, die die Umgehung der Sicherheitsvorkehrungen ermöglicht hĂ€tten. Das Unternehmen setzt bereits seit Sommer 2025 KI-Modelle fĂŒr defensive Zwecke bei Pentagon und Geheimdiensten ein – allerdings mit klar definierten Grenzen.

Drohende VertragskĂŒndigungen und rechtliche Eskalation

Die Konsequenzen der Weigerung könnten fĂŒr das kalifornische Unternehmen schwerwiegend sein. Neben der KĂŒndigung von RĂŒstungsvertrĂ€gen im Umfang von 200 Millionen Euro droht die Einstufung als „Risiko fĂŒr die Lieferkette“. Diese Kennzeichnung wird normalerweise Firmen mit Verbindungen zu auslĂ€ndischen Gegnern vorbehalten und wĂŒrde kĂŒnftige StaatsauftrĂ€ge praktisch unmöglich machen.

Als letztes Druckmittel erwĂ€gt das Pentagon die Anwendung des Defense Production Act. Dieses Gesetz aus der Zeit des Kalten Krieges wĂŒrde der Regierung weitreichende Befugnisse geben, private Unternehmen zur ErfĂŒllung von Sicherheitsanforderungen zu zwingen – notfalls gegen deren ethischen GrundsĂ€tze. Ein solcher Schritt wĂŒrde wahrscheinlich langwierige Gerichtsverfahren nach sich ziehen.

MilitÀr beharrt auf operativer Handlungsfreiheit

Aus Sicht des Verteidigungsministeriums kann sich das MilitĂ€r nicht den Nutzungsbedingungen eines privaten Technologieanbieters unterwerfen. „Operative Entscheidungen dĂŒrfen nicht von den GeschĂ€ftsbedingungen eines gewinnorientierten Tech-Konzerns diktiert werden“, argumentieren Pentagon-Vertreter. Sie betonen, dass bestehende Gesetze illegale Überwachung und autonome Waffensysteme bereits verbieten.

Anzeige

Die fortschreitende Integration von KI in kritische Infrastrukturen bringt neue Risiken fĂŒr die IT-Sicherheit mit sich, die ĂŒber rein ethische Fragen hinausgehen. Erfahren Sie in diesem Experten-Report, wie Sie Ihr Unternehmen gegen moderne Cyber-Bedrohungen wappnen und neue Gesetze richtig umsetzen. Kostenloses E-Book zu Cyber Security Trends herunterladen

Das Ministerium zeigt sich kompromissbereit in anderen Bereichen: Anthropic wurde eine Mitgliedschaft in einem militĂ€rischen KI-Ethikgremium angeboten. Die explizite Aufnahme der firmeneigenen Verbote in VertrĂ€ge lehnt das Pentagon jedoch ab – dies wĂŒrde die Einsatzbereitschaft gegenĂŒber globalen Gegnern wie China gefĂ€hrden.

Branche beobachtet PrĂ€zedenzfall fĂŒr KI-Regulierung

Der Konflikt markiert einen Wendepunkt im VerhĂ€ltnis zwischen kommerzieller KI-Entwicklung und nationaler Sicherheit. Anthropic war bislang der einzige große KI-Entwickler mit Zugang zu den geheimen Netzwerken des Pentagons. Sollte diese Partnerschaft scheitern, stehen alternative Anbieter bereit: Google, OpenAI und Elon Musks xAI haben bereits zugesagt, ihre Technologie ohne die von Anthropic geforderten BeschrĂ€nkungen zu liefern.

Experten sehen in dem Streit einen Testfall fĂŒr kĂŒnftige staatliche KI-Beschaffung. Die Claude-KI von Anthropic basiert auf einem „konstitutionellen“ Rahmenwerk, das gezielt die Generierung schĂ€dlicher Inhalte verhindern soll. Die Entfernung dieser Sicherheitsvorkehrungen wĂŒrde tiefgreifende ArchitekturĂ€nderungen erfordern. WĂ€hrend Entwickler zunehmend Wert auf ethische Grenzen legen, priorisieren MilitĂ€rs operative FlexibilitĂ€t und technologische Überlegenheit.

Die Entscheidung wird richtungsweisend sein: Kann die Regierung ein Privatunternehmen zwingen, seine fundamentalen Sicherheitsmechanismen zu entfernen? Die Antwort auf diese Frage wird die Zusammenarbeit zwischen Tech-Branche und Staat nachhaltig verÀndern.

So schÀtzen die Börsenprofis Aktien ein!

<b>So schÀtzen die Börsenprofis  Aktien ein!</b>
Seit 2005 liefert der Börsenbrief trading-notes verlĂ€ssliche Anlage-Empfehlungen – dreimal pro Woche, direkt ins Postfach. 100% kostenlos. 100% Expertenwissen. Trage einfach deine E-Mail Adresse ein und verpasse ab heute keine Top-Chance mehr. Jetzt abonnieren.
FĂŒr. Immer. Kostenlos.
boerse | 68616905 |