KI-Verordnung, Aufschub

KI-Verordnung: EU plant Aufschub für Hochrisiko-Systeme

02.04.2026 - 19:32:37 | boerse-global.de

Die EU plant eine 16-monatige Verschiebung der Frist für Hochrisiko-KI-Systeme, doch viele Firmen sind unvorbereitet und Führungskräfte tragen persönliche Haftung.

KI-Verordnung: EU plant Aufschub für Hochrisiko-Systeme - Foto: über boerse-global.de

Die EU will Unternehmen mehr Zeit geben, um strenge KI-Regeln umzusetzen. Ein neues Gesetzespaket könnte die Frist für kritische Anwendungen um 16 Monate verschieben. Doch viele Firmen sind schlecht vorbereitet – und Vorstände haften persönlich.

Digital Omnibus: Atempause für die Wirtschaft

Brüssel sendet ein Entgegenkommen an die Wirtschaft: Das Europäische Parlament erwägt, die Frist für die Umsetzung der strengsten Vorgaben der KI-Verordnung zu verlängern. Statt dem bisherigen Stichtag 2. August 2026 könnten Unternehmen bis 2. Dezember 2027 Zeit bekommen, ihre Hochrisiko-KI-Systeme anzupassen. Betroffen sind sensible Anwendungen in Personalwesen, Kreditwürdigkeitsprüfung und Strafverfolgung.

Anzeige

Die neuen EU-Vorgaben für künstliche Intelligenz stellen viele Unternehmen vor komplexe Herausforderungen bei der rechtssicheren Umsetzung. Dieser kostenlose Download verschafft Ihnen den Überblick, den Ihre Rechts- und IT-Abteilung jetzt dringend braucht. EU AI Act in 5 Schritten verstehen: Fristen, Pflichten und Risikoklassen kompakt erklärt

Der sogenannte Digital Omnibus soll den regulatorischen Dschungel lichten. Die geplante Verschiebung ist eine Reaktion auf massive praktische Hürden. Die Anforderungen bedeuten für viele Firmen keine Formsache, sondern einen grundlegenden Umbau ihrer KI-Architektur. Dazu gehören robuste Risikomanagementsysteme, qualitativ hochwertige Trainingsdaten zur Vermeidung von Bias und detaillierte Aktivitätsprotokolle.

Doch die Verlängerung birgt Risiken. Sie könnte falsche Sicherheit vermitteln. Aktuelle Analysen von Compliance-Beratungen zeigen ein alarmierendes Bild: Fast 78 Prozent der Unternehmen in Schlüsselsektoren wie Finanzen und Gesundheitswesen wären zum ursprünglichen Termin nicht bereit. Ein Hauptproblem: Viele Firmen haben keinen vollständigen Überblick über ihre eigenen KI-Systeme und können sie deshalb nicht korrekt in Risikokategorien einordnen.

Personal und Finanzen im Fokus der Regulierer

Besonderer Druck lastet auf den Personalabteilungen. Die Ära der „unregulierten algorithmischen Personalarbeit“ geht zu Ende. Systeme für automatisiertes CV-Screening, Bewerber-Ranking oder Leistungsüberwachung stehen unter scharfer Beobachtung – auch mit möglicher Fristverlängerung.

Rechtsexperten warnen vor einer gefährlichen Fehleinschätzung: Viele Unternehmen unterschätzen, wann sie vom bloßen Anwender zum Anbieter einer KI werden. Wer ein externes Basismodell für interne Zwecke erheblich anpasst – etwa ein Sprachmodell mit eigenen Recruiting-Daten trainiert – übernimmt plötzlich volle Anbieterpflichten. Dazu gehören eine formale Konformitätsbewertung und eine CE-Kennzeichnung vor der Nutzung in der EU.

Anzeige

Da Verstöße gegen Dokumentationspflichten für Hochrisiko-Systeme bereits empfindliche Bußgelder nach sich ziehen können, sollten Verantwortliche ihre Compliance-Strategie frühzeitig anpassen. Ein aktueller Gratis-Report klärt auf, welche KI-Systeme als Hochrisiko gelten und was Unternehmen jetzt konkret tun müssen. Welche KI-Systeme gelten als Hochrisiko – und was müssen Unternehmen jetzt konkret tun?

Im Finanzsektor türmen sich die Anforderungen. Die KI-Verordnung überschneidet sich mit bestehenden Regeln wie DORA (Digital Operational Resilience Act) und MiCA (Markets in Crypto-Assets). KI-gestützte Kreditwürdigkeitsprüfungen oder Versicherungsrisikobewertungen gelten als hochriskant. Sie müssen für Nutzer nachvollziehbar sein. Die technische Umsetzung dieser „Erklärbarkeit“ bei komplexen Blackbox-Modellen treibt viele Unternehmen an den Rand ihrer Möglichkeiten – und ist ein Hauptgrund für den Ruf nach einer Fristverlängerung.

Studie offenbart fatale Führungslücke

Während die Regulierung Fahrt aufnimmt, schlafen viele Vorstände. Eine Studie von Protiviti und BoardProspects vom 18. März 2026 zeigt ein eklatantes Governance-Defizit: 74 Prozent der Aufsichtsräte behandeln KI nicht als festen Tagesordnungspunkt. Diese Lücke ist brandgefährlich, denn die KI-Verordnung und nationale Gesetze wie das deutsche KI-Maßnahmen- und Innovationsgesetz (KI-MIG) führen zu persönlicher Haftung für Führungskräfte.

Die Studie zeigt einen klaren Zusammenhang: Unternehmen, die ihre KI-Investitionen als „hoch rentabel“ einstufen, besprechen KI fast fünfmal häufiger im Vorstand als weniger erfolgreiche Konkurrenten. KI-Governance wird vom lästigen Compliance-Thema zum zentralen Wettbewerbsfaktor.

Die Strafen bei Verstößen sind beispiellos. Für verbotene KI-Praktiken drohen Bußgelder von bis zu 35 Millionen Euro oder 7 Prozent des weltweiten Jahresumsatzes. Bei Verstößen gegen Dokumentationspflichten für Hochrisiko-Systeme sind bis zu 3 Prozent des Umsatzes möglich. Das deutsche KI-MIG geht noch weiter: Bei groben Führungsversagen in der KI-Aufsicht können vorübergehende Management-Verbote verhängt werden – ähnlich wie in der NIS2-Richtlinie zur Cybersicherheit.

Globaler Trend: Verantwortung verschiebt sich

Während Europa über Fristen debattiert, handeln andere globale Player. Die US-Regierung stellte am 20. März 2026 ihren National Policy Framework for Artificial Intelligence vor. Ziel ist, einen Flickenteppich aus rund 40 unterschiedlichen Landesregelungen zu verhindern. Der Rahmen setzt auf nationale Mindeststandards für Hochrisiko-KI, mit Fokus auf Anti-Diskriminierung und Verbraucherschutz.

Auch Großbritannien verschärft den Ton. Die Wettbewerbsbehörde CMA machte am 9. März 2026 klar: Unternehmen haften voll für Verstöße gegen Verbraucherrecht durch KI-Agenten – egal, ob der Chatbot oder Produktempfehlungs-Algorithmus von einem Drittanbieter stammt.

Die Botschaft in London, Washington und Berlin ist eindeutig: Die Verantwortung lastet nicht mehr bei den Entwicklern der Basistechnologie, sondern bei den Unternehmen, die sie einsetzen. „Unwissenheit über den Algorithmus“ ist kein rechtliches Verteidigungsargument mehr.

Was Unternehmen jetzt tun müssen

Das restliche Jahr 2026 wird zur intensiven Aufholjagd für die Wirtschaft. Selbst wenn das Parlament die Frist verschiebt: Die KI-Kompetenzpflicht nach Artikel 4 der Verordnung gilt bereits seit Anfang 2025. Unternehmen müssen sicherstellen, dass Mitarbeiter, die KI-Systeme bedienen oder überwachen, über ausreichende Qualifikation verfügen.

Experten raten, die mögliche 16-monatige Verlängerung als Vorbereitungsfenster zu nutzen, nicht als Aufschub. Die Einführung internationaler Standards wie ISO 42001 (KI-Managementsystem) gilt als pragmatischer Weg, „Best Practice“ gegenüber Aufsichtsbehörden nachzuweisen.

Unternehmen sollten jetzt handeln: eine zentrale KI-Inventur erstellen, gründliche Risikobewertungen durchführen und die Aufsicht auf Vorstandsebene formalisieren. So lässt sich die Herausforderung Hochrisiko-KI in eine Grundlage für nachhaltiges digitales Wachstum verwandeln. Der Fokus wird sich bald auf nationale Marktüberwachungsbehörden wie die deutsche Bundesnetzagentur verlagern. Sie werden die technische Dokumentation prüfen und sicherstellen, dass „vertrauenswürdige KI“ mehr ist als ein leeres Versprechen.

So schätzen die Börsenprofis Aktien ein!

<b>So schätzen die Börsenprofis   Aktien ein!</b>
Seit 2005 liefert der Börsenbrief trading-notes verlässliche Anlage-Empfehlungen – dreimal pro Woche, direkt ins Postfach. 100% kostenlos. 100% Expertenwissen. Trage einfach deine E-Mail Adresse ein und verpasse ab heute keine Top-Chance mehr. Jetzt abonnieren.
Für. Immer. Kostenlos.
boerse | 69058667 |