EU-Kommission, KI-Chatbot

EU-Kommission ermittelt gegen KI-Chatbot Grok auf Plattform X

27.01.2026 - 06:33:12

Die EU-Kommission untersucht die Plattform X wegen ihres KI-Chatbots Grok. Im Fokus stehen mangelnde Schutzmaßnahmen gegen illegale Inhalte wie manipulierte Deepfakes.

Die EU-Kommission hat ein formelles Verfahren gegen die Plattform X wegen seines KI-Chatbots Grok eingeleitet. Grund sind schwere Bedenken, das Unternehmen habe die Risiken für die Verbreitung illegaler Inhalte nicht ausreichend eingedämmt – insbesondere bei der Erstellung manipulativer, pornografischer Deepfakes. Es ist die bisher schärfste regulatorische Maßnahme der EU gegen ein großes generatives KI-Werkzeug.

Die Untersuchung erfolgt unter der strengen Digital Services Act (DSA). Sie prüft, ob X seiner rechtlichen Pflicht nachkam, Nutzer vor absehbaren Schäden zu schützen. Besondere Besorgnis gilt der Möglichkeit, dass der KI-Chatbot Material zum sexuellen Missbrauch von Kindern generieren kann. Für X ist es bereits der zweite große Konflikt mit Brüssel: Im Dezember 2025 verhängte die Kommission eine Geldstrafe von 120 Millionen Euro wegen anderer DSA-Verstöße.

Digital Services Act: EU setzt Zeichen gegen Tech-Riesen

Mit dem DSA verfügt die EU über ein mächtiges Instrument, um den digitalen Raum sicherer zu machen. Das Verfahren wird untersuchen, ob X vor dem Start von Grok in der EU eine angemessene Risikobewertung vornahm und wirksame Gegenmaßnahmen etablierte. Als „sehr große Online-Plattform“ (VLOP) trägt X eine besondere Verantwortung.

Anzeige

Seit August 2024 gelten in der EU neue Regeln für KI‑Systeme – und viele Unternehmen riskieren empfindliche Sanktionen, wenn sie jetzt nicht handeln. Unser kostenloser Umsetzungsleitfaden zur EU‑KI‑Verordnung erklärt praxisnah Kennzeichnungspflichten, Risikoklassen, Dokumentationsanforderungen und konkrete Schritte, um Deepfake‑Risiken und Meldepflichten zu adressieren. Mit Checkliste für Entwickler, Anbieter und Compliance‑Teams, damit Sie Ihre Systeme rechtskonform nachrüsten. Jetzt kostenlosen KI‑Umsetzungsleitfaden herunterladen

Bei Verstößen drohen empfindliche Strafen von bis zu 6 Prozent des weltweiten Jahresumsatzes. Die Kommission kann zudem Informationen anfordern, Inspektionen durchführen und vorläufige Maßnahmen anordnen. Die Botschaft an die Tech-Branche ist klar: Wer generative KI in der EU einsetzt, muss für deren gesellschaftliche Auswirkungen geradestehen.

Globaler Vertrauensverlust: Regierungen weltweit ziehen nach

Die EU handelt nicht allein. Auch Regulierer in Großbritannien, Indien, Japan und Indonesien haben Maßnahmen gegen Grok eingeleitet oder schwere Bedenken geäußert. Indiens IT-Ministerium forderte X bereits im Januar auf, obszöne Bilder zu löschen. In Großbritannien prüft die Medienaufsicht Ofcom, ob die Generierung intimer Deepfakes gegen das Online Safety Act verstößt.

Parallel wächst die öffentliche Skepsis. Eine aktuelle Umfrage aus Australien zeigt eine tiefe Vertrauenskrise: 94 Prozent der Australier erwarten, dass KI-Systeme mindestens so sicher sind wie die kommerzielle Luftfahrt. Experten halten dies für aktuell völlig unrealistisch. Nur 23 Prozent der Bevölkerung vertrauen Tech-Unternehmen, KI verantwortungsvoll zu entwickeln. Dieser öffentliche Druck befeuert Forderungen nach verbindlichen Sicherheitstests und unabhängigen Audits.

Fragmentierte Regulierung: EU, USA und Asien gehen getrennte Wege

Während der Bedarf nach KI-Sicherheit global anerkannt ist, gehen die regulatorischen Ansätze immer weiter auseinander.

  • EU: Verfolgt einen umfassenden, rechtsbasierten Ansatz mit dem KI-Gesetz (AI Act). Ab August 2026 müssen KI-generierte Inhalte wie Deepfakes klar gekennzeichnet werden. Der europäische KI-Ausschuss arbeitet an einem verbindlichen Verhaltenskodex.
  • USA: Setzt auf Deregulierung. Das Justizministerium bildete eine Task Force, um bundesstaatliche KI-Sicherheitsgesetze gerichtlich anzufechten. Die Strategie zielt darauf ab, einen Flickenteppich von Vorschriften zu verhindern, der Innovation hemmen könnte.
  • Singapur: Geht einen Sonderweg. Der Stadtstaat stellte auf dem Weltwirtschaftsforum den ersten Governance-Rahmen für „Agentic AI“ vor – also für autonome Systeme, die Aufgaben im Namen eines Nutzers ausführen. Die Verantwortung bleibt dabei stets beim Menschen.

Ausblick: Vom Dialog zur konkreten Umsetzung

Die theoretischen Risiken generativer KI sind real geworden. Der Grok-Deepfake-Skandal wirkt als Katalysator, der Regierungen weltweit zum Handeln zwingt. Für global operierende Tech-Konzerne entsteht ein komplexes und herausforderndes regulatorisches Umfeld.

Der nächste große Gipfel, der AI Impact Summit im Februar 2026 in Delhi, soll den Fokus vom Dialog auf „demonstrierbare Ergebnisse“ lenken. Für das Jahr 2026 steht die Umsetzung und Durchsetzung im Vordergrund. Das Verfahren der EU-Kommission gegen X wird als Präzedenzfall genau beobachtet, wie bestehende Digitalvorschriften auf generative KI angewendet werden können. Die große Herausforderung bleibt, eine Balance zu finden: Sie muss Innovation fördern und gleichzeitig robuste Schutzvorkehrungen gewährleisten, um die Öffentlichkeit vor den tiefgreifenden Risiken dieser Technologie zu bewahren.

PS: Die Auseinandersetzung um Grok zeigt, wie schnell Deepfakes und manipulative Inhalte regulatorisch brisant werden. Holen Sie sich das kompakte E‑Book zur EU‑KI‑Verordnung: klare Erläuterungen zu Kennzeichnungspflichten, Übergangsfristen, Audit‑ und Dokumentationspflichten sowie praktische Compliance‑To‑Dos für Unternehmen und Entwickler. Kostenloser Download, ideal als Checkliste für Ihre nächste Sicherheits‑ und Rechtsprüfung. EU‑KI‑Verordnung: Umsetzungsleitfaden gratis anfordern

@ boerse-global.de