Anthropic: US-Regierung verbietet KI nach ethischem Konflikt
28.02.2026 - 16:49:43 | boerse-global.deDie US-Regierung hat dem KI-Unternehmen Anthropic sĂ€mtliche BundesauftrĂ€ge entzogen. Grund ist der Weigerung des Unternehmens, SicherheitsbeschrĂ€nkungen seiner KI fĂŒr MilitĂ€rzwecke aufzuheben. Das Pentagon stufte den US-Konzern daraufhin als Sicherheitsrisiko ein â ein beispielloser Schritt.
WĂ€hrend Regierungen und Konzerne ĂŒber ethische Leitplanken streiten, schafft die neue EU-KI-Verordnung bereits klare Fakten fĂŒr die zivile Nutzung. Dieser kostenlose Leitfaden erklĂ€rt verstĂ€ndlich, welche konkreten Pflichten und Risikoklassen nun fĂŒr Ihr Unternehmen gelten. EU-KI-Verordnung kompakt: Gratis E-Book sichern
Ethische "Rote Linien" fĂŒhren zum Bruch
Der Konflikt eskalierte, weil Anthropic zwei Anwendungen kategorisch ausschlieĂt: massive InlandsĂŒberwachung US-amerikanischer BĂŒrger und den Einsatz in vollautonomen Waffensystemen. Firmenchef Dario Amodei begrĂŒndete die Haltung mit dem Schutz demokratischer Werte und unkalkulierbaren Risiken. Ein Ultimatum des Pentagons, die BeschrĂ€nkungen bis Freitagabend zu streichen, lieĂ das Unternehmen verstreichen.
Die Reaktion der Regierung folgte umgehend. Verteidigungsminister Pete Hegseth erklĂ€rte Anthropic zur âGefahr fĂŒr die Lieferketteâ â eine Einstufung, die bisher auslĂ€ndischen Gegnern vorbehalten war. Kurz darauf ordnete PrĂ€sident Donald Trump per Social Media an, die Technologie des Unternehmens aus allen Bundesbehörden zu entfernen. Eine sechsmonatige Ăbergangsfrist soll den Ausstieg ermöglichen.
Schockwellen in Tech- und Verteidigungsbranche
Die Entscheidung trifft Anthropic finanziell hart: Ein Vertrag im Volumen von rund 185 Millionen Euro und die Integration in geheime MilitĂ€rnetzwerke stehen auf dem Spiel. Das Unternehmen kĂŒndigte an, gegen die ârechtlich haltloseâ Einstufung vor Gericht zu ziehen.
In Silicon Valley zieht der Fall tiefe GrĂ€ben. WĂ€hrend sich Figuren wie Elon Musk (xAI) hinter die Regierung stellen, solidarisieren sich andere mit Anthropic. Berichten zufolge teilt sogar Sam Altman, CEO des Konkurrenten OpenAI, die ethischen Bedenken. Der Streit offenbart den grundsĂ€tzlichen Konflikt: DĂŒrfen Tech-Konzerne der Regierung vorschreiben, wie deren KI eingesetzt wird?
Der Fall Anthropic zeigt, wie schnell technologische Innovationen mit neuen rechtlichen Rahmenbedingungen kollidieren können. Was Unternehmen jetzt ĂŒber die seit August 2024 geltenden Regeln wissen mĂŒssen, erfahren Sie in diesem kostenlosen Umsetzungsleitfaden. Kostenlosen KI-Verordnungs-Leitfaden herunterladen
Wer setzt die ethischen Grenzen?
Die Kernfrage lautet: Wer bestimmt die Spielregeln fĂŒr KI in sensiblen Bereichen? Die Entwickler oder die staatlichen Nutzer? Das Pentagon argumentiert, sich keine Vorgaben von Privatfirmen machen lassen zu können. FĂŒr Anthropic ist es eine Gewissensentscheidung.
WĂ€hrend sich der Rechtsstreit abzeichnet, muss die US-Regierung Ersatz fĂŒr das Claude-Modell finden. Sollten andere KI-Anbieter Ă€hnliche Restriktionen erlassen, könnte die Suche schwierig werden. Der Ausgang dieses PrĂ€zedenzfalls wird die Partnerschaft zwischen Technologie und nationaler Sicherheit nachhaltig prĂ€gen.
So schÀtzen die Börsenprofis Aktien ein!
FĂŒr. Immer. Kostenlos.
