Anthropic, Gericht

Anthropic: Gericht stoppt US-Blacklist für KI-Entwickler

30.03.2026 - 16:01:10 | boerse-global.de

Ein US-Bundesgericht hat die geplante Einstufung von Anthropic als Sicherheitsrisiko ausgesetzt. Der KI-Entwickler verteidigt ethische Nutzungsbeschränkungen für das Pentagon und setzt mit Claude Code technische Maßstäbe.

Anthropic: Gericht stoppt US-Blacklist für KI-Entwickler - Foto: über boerse-global.de

Ein US-Bundesgericht hat die geplante Blacklistierung des KI-Entwicklers Anthropic vorerst gestoppt. Die Entscheidung markiert einen Wendepunkt im Machtkampf zwischen Ethik und militärischer Nutzung Künstlicher Intelligenz. Parallel sichert sich Anthropics „Claude Code“ die Spitzenposition in globalen Software-Benchmarks.

Gericht sieht Willkür in „Risiko“-Einstufung

Richterin Rita F. Lin erließ am 26. März eine einstweilige Verfügung gegen die US-Regierung. Sie stoppte damit den Plan des Verteidigungsministeriums, Anthropic als „Lieferkettenrisiko“ einzustufen – eine Kategorie, die normalerweise feindlichen ausländischen Firmen vorbehalten ist. Das Gericht zeigte sich skeptisch gegenüber der Begründung der Regierung. Die Maßnahme wirke wie eine Bestrafung des Unternehmens, nicht wie eine legitime Sicherheitsvorkehrung, so die Richterin. Die Verfügung ist für sieben Tage ausgesetzt, um dem Justizministerium Zeit für eine Berufung zu lassen. Würde das Urteil bestehen bleiben, wäre der geplante 180-tägige Ausstiegsprozess gestoppt, der Bundesbehörden und Rüstungskonzerne bereits in Atem hält.

Anzeige

Während Regierungen und Großkonzerne über Sicherheitsvorgaben streiten, müssen Unternehmen in der EU bereits heute konkrete gesetzliche Anforderungen beim Einsatz von Algorithmen erfüllen. Dieser kostenlose Leitfaden erklärt verständlich die neuen Kennzeichnungspflichten und Risikoklassen der aktuellen Gesetzgebung. EU-KI-Verordnung kompakt: Jetzt Gratis-Leitfaden sichern

200-Millionen-Vertrag und ethische „Rote Linien“

Der Konflikt brodelt seit Monaten. Auslöser sind ethische „Rote Linien“, die Anthropic in einem 200-Millionen-Euro-Vertrag mit dem Pentagon von Juli 2025 durchsetzte. Das Unternehmen verbietet den Einsatz seiner Claude-Modelle für Massenüberwachung im Inland und für vollautonome Waffensysteme. Verteidigungsminister Pete Hegseth und andere Pentagon-Offizielle fordern dagegen KI-Werkzeuge „für alle legalen Zwecke“ ohne Herstellerbeschränkungen. Der Bruch kam, als Anthropic-CEO Dario Amodei sich Ende Februar weigerte, diese Sicherheitsprotokolle aufzuweichen. Die Folge war ein Nutzungsverbot für alle Bundesangestellten.

Doch der Bann ist offenbar wirkungslos. Berichten zufolge ist Claude tief in kritischen Workflows verwurzelt. Nachrichtendienste nutzten das Modell angeblich zur Aufbereitung großer Datensätze für Operationen im Nahen Osten und in Südamerika. Der CIO des Pentagons, Kirsten Davies, warnte: Das Entfernen dieser Systeme könne Monate dauern und katastrophale Risiken für Soldaten bergen, wenn es keine sofortigen Alternativen gebe.

„Claude Code“ setzt neuen Standard für Entwickler

Während der Rechtsstreit tobt, festigt Anthropic seine technologische Führungsposition. Das neue Tool „Claude Code“, basierend auf dem Opus-4.6-Modell, erreicht im „SWE-rebench“-Test eine Rekordquote von 52,9 % bei komplexen Software-Aufgaben. Das übertrifft Konkurrenten wie OpenAIs GPT-5.2 und Googles Gemini 3 Pro deutlich. Besonders innerhalb der IT-Abteilungen des Pentagons ist das Kommandozeilen-Tool beliebt. Entwickler militärischer Software sagen: Der Verlust von Claude Code würde die Produktivität erheblich senken, da das Tool einzigartige Architekturentscheidungen treffen und zuverlässige Änderungen in großen Codebasen vornehmen kann.

Der Vorsprung der 4.6-Serie geht auf verbesserte „Computer-Use“-Fähigkeiten zurück. Die KI kann mit Standard-Softwareumgebungen interagieren, indem sie Bildschirminhalte interpretiert und präzise Maus- und Tastaturaktionen ausführt. Das macht Claude zur ersten Wahl für die Automatisierung aufwändiger Aufgaben wie Dokumentenprüfung oder die Erstellung von Geheimdienstberichten.

Anzeige

Die rasante Entwicklung leistungsfähiger KI-Systeme bringt nicht nur technische Vorteile, sondern auch neue regulatorische Pflichten für Entwickler und Anbieter mit sich. Erfahren Sie in diesem kostenlosen E-Book, wie Sie Ihre Systeme richtig klassifizieren und dokumentieren, um teure Bußgelder zu vermeiden. Kostenlosen Umsetzungsleitfaden zur KI-Verordnung herunterladen

Markt wankt – Konkurrenz schlägt zu

Die Unsicherheit der letzten Wochen hinterlässt Spuren. Zwar stieg das Interesse an Claude zunächst, als das Unternehmen dem Pentagon trotzte. Doch die täglichen Downloads stagnieren nun. ChatGPT überholte Claude kürzlich in den App-Stores – eine Verschiebung, die Analysten auf die unsichere Lage zurückführen.

Dennoch scheint Anthropics Fokus auf Unternehmen und Regierungen robust. Palantir-CEO Alex Karp bestätigte, dass sein Unternehmen Claude-Modelle weiter in seine KI-Plattform für kommerzielle und staatliche Kunden integriere. Palantir, das in hochsicheren „Impact Level 6“-Umgebungen arbeitet, bleibt eine kritische Brücke für Anthropics Technologie im Verteidigungssektor.

Die Konkurrenz nutzt die Gunst der Stunde. OpenAI unterzeichnete kürzlich ein neues Abkommen mit dem Pentagon und signalisierte so seine Bereitschaft, die Forderungen nach uneingeschränkter Nutzung zu erfüllen. Auch xAIs Grok wird vermehrt in Militärnetzen getestet, soll aber an Konsistenz und Codepräzision dem Claude-4.6-Modell noch hinterherhinken.

Entscheidung in sieben Tagen – Weg bis zum Supreme Court?

Die kommende Woche wird entscheidend. Die siebentägige Frist für die Berufung der Regierung läuft am 2. April ab. Gelingt es dem Justizministerium nicht, die Vollstreckung der einstweiligen Verfügung zu stoppen, kann Anthropic sofort wieder mit Bundesbehörden zusammenarbeiten.

Rechtsexperten halten es für möglich, dass der Fall bis zum Supreme Court geht. Er berührt die Frage, ob die Exekutive inländische Unternehmen allein aufgrund ihrer internen Sicherheitsrichtlinien zu nationalen Sicherheitsrisiken erklären darf. Der „asymmetrische KI-Vorteil“, den Claude bietet, bleibt ein Zankapfel zwischen Befürwortern ethischer Schranken und Verfechtern uneingeschränkter KI als strategischem Imperativ für moderne Kriegsführung. Die Branche blickt gespannt auf den April. Wird „sichere KI“ mit dem militärisch-industriellen Komplex koexistieren können? Oder erzwingt das Streben nach „allen legalen Anwendungen“ einen endgültigen Bruch zwischen Silicon Valley und dem Pentagon?

So schätzen die Börsenprofis Aktien ein!

<b>So schätzen die Börsenprofis  Aktien ein!</b>
Seit 2005 liefert der Börsenbrief trading-notes verlässliche Anlage-Empfehlungen – dreimal pro Woche, direkt ins Postfach. 100% kostenlos. 100% Expertenwissen. Trage einfach deine E-Mail Adresse ein und verpasse ab heute keine Top-Chance mehr. Jetzt abonnieren.
Für. Immer. Kostenlos.
boerse | 69030300 |