US-Regierung verschärft Kontrolle über KI-Modelle
10.05.2026 - 15:24:24 | boerse-global.deWashington – Die US-Regierung geht in die Offensive: Künftig sollen die leistungsfähigsten KI-Modelle vor ihrer Veröffentlichung von Bundesbehörden auf Sicherheitslücken geprüft werden. Google, Microsoft und xAI haben bereits zugestimmt.
Der Schritt markiert eine Zeitenwende im Verhältnis zwischen dem Silicon Valley und Washington. Auslöser war ein brisanter Vorfall um ein unveröffentlichtes KI-Modell namens „Mythos", das eigenständig kritische Sicherheitslücken in grundlegenden Softwaresystemen ausnutzen konnte. Die US-Regierung reagiert nun mit einem freiwilligen Transparenzprogramm – doch die Diskussion über eine verpflichtende Zulassung hat bereits begonnen.
Der rasante Aufstieg der künstlichen Intelligenz bietet enorme Chancen, stellt Unternehmen aber auch vor wachsende Herausforderungen in der IT-Sicherheit. Erfahren Sie in diesem kostenlosen E-Book, wie Sie Sicherheitslücken schließen und Ihre Firma proaktiv vor modernen Cyberangriffen schützen. Gratis Cyber-Security-Leitfaden jetzt herunterladen
Der Mythos-Vorfall und die neue Testinitiative
Im April 2026 eskalierte die Lage. Vizepräsident JD Vance berief eine Krisenkonferenz mit den Chefs der weltweit führenden KI-Unternehmen ein – darunter OpenAI, Google, Microsoft und Anthropic. Der Grund: Das von Anthropic entwickelte Modell Mythos war nie veröffentlicht worden, weil interne Tests seine gefährlichen Fähigkeiten offenbart hatten. Das System konnte eigenständig Sicherheitslücken im Linux-Kernel und in OpenBSD identifizieren und ausnutzen – zwei Säulen der globalen Computerinfrastruktur.
Obwohl Mythos nie öffentlich zugänglich war, gelangten Unbefugte offenbar über einen Drittanbieter an die Technologie. Der Vorfall machte schmerzhaft deutlich, wie schwer sogenannte „Frontier-Modelle" zu kontrollieren sind.
Die Konsequenz folgte am 9. Mai 2026: Das National Institute of Standards and Technology (NIST) gab bekannt, dass Google, Microsoft und xAI sich bereit erklärt haben, ihre unveröffentlichten KI-Modelle von Bundesforschern testen zu lassen. Das Center for AI Safety and Innovation (CAISI) hat bereits über 40 solcher Prüfungen durchgeführt. Auch OpenAI will seine fortschrittlichsten Systeme zur Verfügung stellen. Ziel ist es, sogenannte Dual-Use-Risiken zu identifizieren – Fähigkeiten, die sowohl für produktive als auch für schädliche Zwecke genutzt werden könnten.
Streit um „FDA-Modell" für KI
Während das aktuelle Testprogramm noch auf Freiwilligkeit basiert, denkt das Weiße Haus bereits über eine verpflichtende Regelung nach. Kevin Hassett, Direktor des National Economic Council, brachte ein Modell ähnlich der US-Arzneimittelbehörde FDA ins Spiel: KI-Entwickler müssten dann eine bundesstaatliche Zulassung einholen, bevor sie risikoreiche Modelle auf den Markt bringen.
Die Tech-Branche reagierte alarmiert. Kritiker befürchten, dass eine „Vorab-Genehmigung" die schnelle Entwicklung ausbremsen und vor allem kleine Startups benachteiligen würde. Susie Wiles, Stabschefin des Weißen Hauses, versuchte zu beschwichtigen: Es gehe nicht darum, „Gewinner und Verlierer auszuwählen", sondern darum, dass die mächtigsten Systeme grundlegende Sicherheitsstandards erfüllen.
Der Fokus der Regierung beschränkt sich nicht auf Cybersicherheit. Das Finanzministerium hat Berichten zufolge führende Bankmanager zu einem Gipfel über die Auswirkungen von KI auf die Finanzstabilität eingeladen. Die Sorge: Die rasche Integration von KI in den Hochfrequenzhandel und das Risikomanagement könnte systemische Schwachstellen schaffen, die bislang kaum verstanden sind.
Bundesstaaten greifen durch: Datenzentren in der Pflicht
Während die Bundesregierung die KI-Modelle selbst ins Visier nimmt, gehen die Bundesstaaten gegen die physische Infrastruktur der Branche vor. Am 9. Mai 2026 verabschiedeten Florida und Oregon weitreichende Gesetze für die riesigen Datenzentren, die zum Training und Betrieb der Modelle nötig sind.
In Florida unterzeichnete Gouverneur Ron DeSantis ein Gesetz, das KI-Datenzentren zwingt, die vollen Kosten ihrer eigenen Strominfrastruktur zu tragen. Die Regelung tritt am 1. Juli 2026 in Kraft und soll private Haushalte vor steigenden Stromrechnungen schützen – besonders in den heißen Sommermonaten.
Die Oregon Public Utility Commission verlangt per Anordnung, dass Datenzentren mit einem Strombedarf von über 20 Megawatt ihre eigenen Netzausbaukosten übernehmen. Eine spezielle „Schedule 96"-Klausel belegt Anlagen mit mehr als 100 Megawatt Verbrauch mit einem Aufschlag von einem Cent pro Kilowattstunde. Die Einnahmen fließen in lokale Energieeffizienzprogramme. Zudem dürfen neue Großrechenzentren nur ans Netz, wenn sie einen Weg zu emissionsfreiem Strom nachweisen können.
Europa und China ziehen nach
Die US-Entwicklung fällt mit bedeutenden regulatorischen Fortschritt in anderen Regionen zusammen. Am 10. Mai 2026 einigten sich das Europäische Parlament und der Europäische Rat vorläufig auf das „AI Omnibus"-Gesetzespaket. Es vereinfacht und zentralisiert die KI-Regeln in der EU. Hochriskante KI-Systeme müssen bis zum 2. Dezember 2027 die Sicherheitsstandards erfüllen, Systeme mit eingebetteter KI haben bis August 2028 Zeit. Für Deepfakes und illegale KI-Inhalte gilt bereits der 2. Dezember 2026 als Stichtag. Die EU weitete zudem die Ausnahmen für kleine und mittlere Unternehmen aus – die Umsatzschwelle dafür liegt bei 200 Millionen Euro.
Angesichts der neuen gesetzlichen Anforderungen durch den EU AI Act müssen Unternehmen ihre KI-Systeme jetzt rechtlich absichern. Dieser Praxisleitfaden bietet einen kompakten Überblick über alle Pflichten, Risikoklassen und Fristen der neuen Verordnung. KI-Verordnung Umsetzungsleitfaden kostenlos sichern
Auch China legte am 9. Mai 2026 nach: Ein umfassendes Regelwerk speziell für KI-Agenten – autonome Systeme, die Aufgaben für Nutzer erledigen – wurde vorgestellt. Peking führt eine nationale Registrierungsplattform mit digitalen IDs ein. Bis 2027 soll die Nutzung in Schlüsselindustrien bei 70 Prozent liegen. Für risikoreiche Bereiche wie Gesundheitswesen und öffentliche Sicherheit ist jedoch eine „Human-in-the-Loop"-Kontrolle vorgeschrieben.
Ein kurioser Kontrast: Südafrika musste im April 2026 seinen „Draft National AI Policy" nur 16 Tage nach Veröffentlichung zurückziehen. Beamte gaben zu, dass Teile des Dokuments – ironischerweise mit Hilfe generativer KI erstellt – „halluzinierte" Zitate nicht existierender wissenschaftlicher Zeitschriften enthielten.
Ausblick: Executive Order und technische Fortschritte
Das Weiße Haus bereitet offenbar eine Executive Order vor, die die Überwachung von Frontier-KI-Modellen formalisieren und die Befugnisse des Handelsministeriums für Audits erweitern soll.
Doch die Industrie schläft nicht. Neue Daten vom 10. Mai 2026 zeigen, dass die neueste Version gängiger Modelle wie GPT-5.5 Instant die „Halluzinationen" – faktische Fehler in KI-Antworten – in risikoreichen Bereichen wie Medizin und Recht um 52,5 Prozent reduzieren konnte. Ein Beweis für Selbstkorrekturfähigkeit, aber aus Sicht der Regulierer kein Ersatz für die Bekämpfung systemischer Risiken wie autonomes Hacken.
Das kommende Jahr wird zum Showdown zwischen staatlichen Infrastrukturkosten, bundesstaatlicher Sicherheitsprüfung und internationalen Standards. Die entscheidende Frage: Kann die USA ihren Wettbewerbsvorsprung gegenüber China halten, ohne dass der Mythos-Vorfall zur veritablen Sicherheitskrise wird? Für die Unternehmen bedeutet das eine neue Realität: Der geheime Quellcode ihrer fortschrittlichsten Modelle ist nicht mehr allein ihr Eigentum.
So schätzen die Börsenprofis Aktien ein!
Für. Immer. Kostenlos.
