Anthropic, US-Regierung

Anthropic: US-Regierung verbietet KI nach ethischem Konflikt

28.02.2026 - 16:49:43 | boerse-global.de

Die US-Regierung hat alle BundesauftrĂ€ge mit Anthropic beendet, nachdem das KI-Unternehmen sich weigerte, SicherheitsbeschrĂ€nkungen fĂŒr militĂ€rische Nutzung aufzuheben.

Anthropic: US-Regierung verbietet KI nach ethischem Konflikt - Foto: ĂŒber boerse-global.de
Anthropic: US-Regierung verbietet KI nach ethischem Konflikt - Foto: ĂŒber boerse-global.de

Die US-Regierung hat dem KI-Unternehmen Anthropic sĂ€mtliche BundesauftrĂ€ge entzogen. Grund ist der Weigerung des Unternehmens, SicherheitsbeschrĂ€nkungen seiner KI fĂŒr MilitĂ€rzwecke aufzuheben. Das Pentagon stufte den US-Konzern daraufhin als Sicherheitsrisiko ein – ein beispielloser Schritt.

Anzeige

WĂ€hrend Regierungen und Konzerne ĂŒber ethische Leitplanken streiten, schafft die neue EU-KI-Verordnung bereits klare Fakten fĂŒr die zivile Nutzung. Dieser kostenlose Leitfaden erklĂ€rt verstĂ€ndlich, welche konkreten Pflichten und Risikoklassen nun fĂŒr Ihr Unternehmen gelten. EU-KI-Verordnung kompakt: Gratis E-Book sichern

Ethische "Rote Linien" fĂŒhren zum Bruch

Der Konflikt eskalierte, weil Anthropic zwei Anwendungen kategorisch ausschließt: massive InlandsĂŒberwachung US-amerikanischer BĂŒrger und den Einsatz in vollautonomen Waffensystemen. Firmenchef Dario Amodei begrĂŒndete die Haltung mit dem Schutz demokratischer Werte und unkalkulierbaren Risiken. Ein Ultimatum des Pentagons, die BeschrĂ€nkungen bis Freitagabend zu streichen, ließ das Unternehmen verstreichen.

Die Reaktion der Regierung folgte umgehend. Verteidigungsminister Pete Hegseth erklĂ€rte Anthropic zur „Gefahr fĂŒr die Lieferkette“ – eine Einstufung, die bisher auslĂ€ndischen Gegnern vorbehalten war. Kurz darauf ordnete PrĂ€sident Donald Trump per Social Media an, die Technologie des Unternehmens aus allen Bundesbehörden zu entfernen. Eine sechsmonatige Übergangsfrist soll den Ausstieg ermöglichen.

Schockwellen in Tech- und Verteidigungsbranche

Die Entscheidung trifft Anthropic finanziell hart: Ein Vertrag im Volumen von rund 185 Millionen Euro und die Integration in geheime MilitĂ€rnetzwerke stehen auf dem Spiel. Das Unternehmen kĂŒndigte an, gegen die „rechtlich haltlose“ Einstufung vor Gericht zu ziehen.

In Silicon Valley zieht der Fall tiefe GrĂ€ben. WĂ€hrend sich Figuren wie Elon Musk (xAI) hinter die Regierung stellen, solidarisieren sich andere mit Anthropic. Berichten zufolge teilt sogar Sam Altman, CEO des Konkurrenten OpenAI, die ethischen Bedenken. Der Streit offenbart den grundsĂ€tzlichen Konflikt: DĂŒrfen Tech-Konzerne der Regierung vorschreiben, wie deren KI eingesetzt wird?

Anzeige

Der Fall Anthropic zeigt, wie schnell technologische Innovationen mit neuen rechtlichen Rahmenbedingungen kollidieren können. Was Unternehmen jetzt ĂŒber die seit August 2024 geltenden Regeln wissen mĂŒssen, erfahren Sie in diesem kostenlosen Umsetzungsleitfaden. Kostenlosen KI-Verordnungs-Leitfaden herunterladen

Wer setzt die ethischen Grenzen?

Die Kernfrage lautet: Wer bestimmt die Spielregeln fĂŒr KI in sensiblen Bereichen? Die Entwickler oder die staatlichen Nutzer? Das Pentagon argumentiert, sich keine Vorgaben von Privatfirmen machen lassen zu können. FĂŒr Anthropic ist es eine Gewissensentscheidung.

WĂ€hrend sich der Rechtsstreit abzeichnet, muss die US-Regierung Ersatz fĂŒr das Claude-Modell finden. Sollten andere KI-Anbieter Ă€hnliche Restriktionen erlassen, könnte die Suche schwierig werden. Der Ausgang dieses PrĂ€zedenzfalls wird die Partnerschaft zwischen Technologie und nationaler Sicherheit nachhaltig prĂ€gen.

So schÀtzen die Börsenprofis Aktien ein!

<b>So schÀtzen die Börsenprofis   Aktien ein!</b>
Seit 2005 liefert der Börsenbrief trading-notes verlĂ€ssliche Anlage-Empfehlungen – dreimal pro Woche, direkt ins Postfach. 100% kostenlos. 100% Expertenwissen. Trage einfach deine E-Mail Adresse ein und verpasse ab heute keine Top-Chance mehr. Jetzt abonnieren.
FĂŒr. Immer. Kostenlos.
de | boerse | 68621481 |