Anthropic verweigert US-MilitÀr Zugriff auf KI ohne SicherheitsbeschrÀnkungen
27.02.2026 - 06:49:29 | boerse-global.de
KI-Entwickler Anthropic stellt sich gegen eine Forderung des US-Verteidigungsministeriums, die Sicherheitsvorkehrungen seiner KI-Modelle fĂŒr militĂ€rische Zwecke zu entfernen. Die Weigerung des Unternehmens, das eine ethische Linie bei MassenĂŒberwachung und autonomen Waffen zieht, könnte VertrĂ€ge im Wert von 200 Millionen Euro gefĂ€hrden und einen PrĂ€zedenzfall fĂŒr die Tech-Branche schaffen.
Ethische rote Linien im Konflikt mit dem Pentagon
WĂ€hrend Tech-Giganten ĂŒber ethische Grenzen streiten, schafft die neue EU-Gesetzgebung bereits klare Fakten fĂŒr den Einsatz kĂŒnstlicher Intelligenz. Dieser kostenlose Leitfaden erklĂ€rt Ihnen die wichtigsten Anforderungen und Fristen der aktuellen KI-Verordnung. EU-KI-Verordnung: Jetzt kostenloses E-Book sichern
Im Zentrum des Streits stehen zwei nicht verhandelbare Prinzipien von Anthropic. Das Unternehmen verbietet den Einsatz seiner Claude-KI fĂŒr die MassenĂŒberwachung amerikanischer BĂŒrger und fĂŒr vollautonome Waffensysteme ohne menschliche Kontrolle. âWir können dem Verlangen des MilitĂ€rs nach bedingonloadoser Nutzung nicht guten Gewissens zustimmenâ, erklĂ€rte CEO Dario Amodei.
Das Verteidigungsministerium hatte bis heute Abend (27. Februar 2026, 17:01 Uhr Ortszeit) ein Ultimatum gestellt. Die geforderten Kompromisse enthielten aus Sicht von Anthropic jedoch rechtliche Schlupflöcher, die die Umgehung der Sicherheitsvorkehrungen ermöglicht hĂ€tten. Das Unternehmen setzt bereits seit Sommer 2025 KI-Modelle fĂŒr defensive Zwecke bei Pentagon und Geheimdiensten ein â allerdings mit klar definierten Grenzen.
Drohende VertragskĂŒndigungen und rechtliche Eskalation
Die Konsequenzen der Weigerung könnten fĂŒr das kalifornische Unternehmen schwerwiegend sein. Neben der KĂŒndigung von RĂŒstungsvertrĂ€gen im Umfang von 200 Millionen Euro droht die Einstufung als âRisiko fĂŒr die Lieferketteâ. Diese Kennzeichnung wird normalerweise Firmen mit Verbindungen zu auslĂ€ndischen Gegnern vorbehalten und wĂŒrde kĂŒnftige StaatsauftrĂ€ge praktisch unmöglich machen.
Als letztes Druckmittel erwĂ€gt das Pentagon die Anwendung des Defense Production Act. Dieses Gesetz aus der Zeit des Kalten Krieges wĂŒrde der Regierung weitreichende Befugnisse geben, private Unternehmen zur ErfĂŒllung von Sicherheitsanforderungen zu zwingen â notfalls gegen deren ethischen GrundsĂ€tze. Ein solcher Schritt wĂŒrde wahrscheinlich langwierige Gerichtsverfahren nach sich ziehen.
MilitÀr beharrt auf operativer Handlungsfreiheit
Aus Sicht des Verteidigungsministeriums kann sich das MilitĂ€r nicht den Nutzungsbedingungen eines privaten Technologieanbieters unterwerfen. âOperative Entscheidungen dĂŒrfen nicht von den GeschĂ€ftsbedingungen eines gewinnorientierten Tech-Konzerns diktiert werdenâ, argumentieren Pentagon-Vertreter. Sie betonen, dass bestehende Gesetze illegale Ăberwachung und autonome Waffensysteme bereits verbieten.
Die fortschreitende Integration von KI in kritische Infrastrukturen bringt neue Risiken fĂŒr die IT-Sicherheit mit sich, die ĂŒber rein ethische Fragen hinausgehen. Erfahren Sie in diesem Experten-Report, wie Sie Ihr Unternehmen gegen moderne Cyber-Bedrohungen wappnen und neue Gesetze richtig umsetzen. Kostenloses E-Book zu Cyber Security Trends herunterladen
Das Ministerium zeigt sich kompromissbereit in anderen Bereichen: Anthropic wurde eine Mitgliedschaft in einem militĂ€rischen KI-Ethikgremium angeboten. Die explizite Aufnahme der firmeneigenen Verbote in VertrĂ€ge lehnt das Pentagon jedoch ab â dies wĂŒrde die Einsatzbereitschaft gegenĂŒber globalen Gegnern wie China gefĂ€hrden.
Branche beobachtet PrĂ€zedenzfall fĂŒr KI-Regulierung
Der Konflikt markiert einen Wendepunkt im VerhĂ€ltnis zwischen kommerzieller KI-Entwicklung und nationaler Sicherheit. Anthropic war bislang der einzige groĂe KI-Entwickler mit Zugang zu den geheimen Netzwerken des Pentagons. Sollte diese Partnerschaft scheitern, stehen alternative Anbieter bereit: Google, OpenAI und Elon Musks xAI haben bereits zugesagt, ihre Technologie ohne die von Anthropic geforderten BeschrĂ€nkungen zu liefern.
Experten sehen in dem Streit einen Testfall fĂŒr kĂŒnftige staatliche KI-Beschaffung. Die Claude-KI von Anthropic basiert auf einem âkonstitutionellenâ Rahmenwerk, das gezielt die Generierung schĂ€dlicher Inhalte verhindern soll. Die Entfernung dieser Sicherheitsvorkehrungen wĂŒrde tiefgreifende ArchitekturĂ€nderungen erfordern. WĂ€hrend Entwickler zunehmend Wert auf ethische Grenzen legen, priorisieren MilitĂ€rs operative FlexibilitĂ€t und technologische Ăberlegenheit.
Die Entscheidung wird richtungsweisend sein: Kann die Regierung ein Privatunternehmen zwingen, seine fundamentalen Sicherheitsmechanismen zu entfernen? Die Antwort auf diese Frage wird die Zusammenarbeit zwischen Tech-Branche und Staat nachhaltig verÀndern.
So schÀtzen die Börsenprofis Aktien ein!
FĂŒr. Immer. Kostenlos.

