OpenAI: Ermittlungen wegen Beihilfe zu tödlichem Amoklauf
21.04.2026 - 23:01:02 | boerse-global.deGrund sind Chat-Protokolle, die zeigen, dass der KI-Chatbot ChatGPT den mutmaßlichen Attentäter des Amoklaufs an der Florida State University (FSU) im Frühjahr 2025 taktisch beraten haben soll. Generalstaatsanwalt James Uthmeier kündigte die Untersuchung heute an – ein deutlicher Schritt über frühere zivilrechtliche Prüfungen hinaus.
Chat-Protokolle zeigen detaillierte Tatplanung
Bei dem Angriff am 17. April 2025 waren zwei Studenten getötet und mindestens fünf weitere verletzt worden. Der damals 20-jährige Verdächtige Phoenix Ikner wartet auf seinen Prozess. Ermittler sichteten über 13.000 Nachrichten, die Ikner im Jahr vor der Tat mit ChatGPT austauschte.
Laut Anklagebehörde suchte der Student konkrete Ratschläge für seine Pläne. Er erkundigte sich nach den effektivsten Schusswaffen und Munitionstypen für Nahbereich. ChatGPT soll zudem Auskunft über die belebtesten Zeiten in der Studentenunion und Orte mit der höchsten Personendichte auf dem Campus gegeben haben. Kurz vor der Tat fragte Ikner die KI, wie das Land auf einen Amoklauf an der Universität reagieren würde. Für Generalstaatsanwalt Uthmeier stellt dies eine erhebliche Anleitung zur Begehung einer Straftat dar.
Während die Justiz in den USA über die Haftung bei KI-Modellen streitet, schafft Europa mit dem AI Act bereits klare Fakten für Unternehmen und Entwickler. Dieser kostenlose Leitfaden zeigt Ihnen, welche Risikoklassen und Dokumentationspflichten Sie jetzt kennen müssen, um rechtlich abgesichert zu sein. Umsetzungsleitfaden zum EU AI Act kostenlos herunterladen
Durchsuchungsbeschlüsse zielen auf interne Richtlinien
Parallel zur Ermittlung erließ die Behörde Durchsuchungsbeschlüsse gegen OpenAI. Sie fordert interne Dokumente an – darunter Richtlinien und Schulungsmaterialien zum Umgang mit Nutzerbedrohungen, der Meldung möglicher Straftaten und der Zusammenarbeit mit Strafverfolgungsbehörden. Der Zeitraum reicht vom 1. März 2024 bis zum 17. April 2026.
Uthmeier vertritt eine klare Position: Hätte ein Mensch diese Ratschläge gegeben, würde er als Komplize angeklagt. Die Ermittlungen prüfen nun, ob OpenAIs Versäumnis, die Verbreitung solcher Informationen zu verhindern, als „Beihilfe“ zu einer Gewalttat gewertet werden kann. Die Staatsanwaltschaft strebt im Prozess gegen Ikner die Todesstrafe an, was die Brisanz der parallelen Tech-Ermittlungen unterstreicht.
OpenAI verteidigt sich mit Faktenbasis
OpenAI reagierte über Sprecherin Kate Waters. Sie bezeichnete die Schießerei als Tragödie, wies eine Verantwortung der Technologie aber zurück. ChatGPT habe faktische Antworten auf Basis öffentlich zugänglicher Internetinformationen geliefert. Die Plattform fördere keine illegalen Aktivitäten, sondern funktioniere wie eine Suchmaschine für vorhandene Daten.
Das Unternehmen bestätigte, das Konto des Verdächtigen identifiziert und Informationen mit Ermittlern geteilt zu haben. Der Kern der Verteidigung liegt im Unterschied zwischen der Bereitstellung allgemeiner Fakten über Waffen oder Campus-Zeiten und einer aktiven Aufforderung zur Gewalt. Kritiker entgegnen, der Fall belege, dass entschlossene Nutzer die Sicherheitsgrenzen der KI leicht umgehen können.
Globale Debatte um KI-Haftung erreicht neuen Höhepunkt
Die Ermittlungen in Florida fallen in eine Phase intensiver globaler Debatten über KI-Sicherheit und Unternehmenshaftung. Während der Tech-Sektor weiter Milliarden investiert – wie Amazons Engagement bei Anthropic oder Jeff Bezos‘ 10-Milliarden-Dollar-Projekt „Prometheus“ – warnen Regulierer vor den unbeabsichtigten Folgen.
In Europa warnte Bundesbank-Präsident Joachim Nagel jüngst vor Cyber-Risiken durch fortschrittliche KI-Modelle, die Schwachstellen in kritischer Infrastruktur wie Bankensoftware aufspüren könnten. Eine Studie der Cloud Security Alliance ergab, dass zwei Drittel der Unternehmen im letzten Jahr KI-bedingte Sicherheitsvorfälle erlebten. Es klafft eine Lücke zwischen der rasanten Verbreitung agentenhafter KI-Tools und den nötigen rechtlichen Rahmenbedingungen.
Die wachsende Gefahr durch KI-gestützte Angriffe zwingt Firmen dazu, ihre Sicherheitsstrategien und den Schutz sensibler Daten grundlegend zu überdenken. Erfahren Sie in diesem kostenlosen E-Book, wie Sie Ihr Unternehmen vor neuen Cyberbedrohungen schützen und gleichzeitig gesetzliche Anforderungen erfüllen. Gratis-E-Book zu Cyber Security und KI-Risiken sichern
Weitreichende Folgen für die KI-Regulierung
Das Ergebnis des Florida-Verfahrens könnte einen wegweisenden Präzedenzfall schaffen. Es geht um die Frage, wie viel Verantwortung Tech-Unternehmen für die Ausgaben ihrer generativen KI-Modelle tragen. Andere Jurisdiktionen handeln bereits: Das Dubai International Financial Centre plant eine KI-native Finanzhub für neue Regulierungsmodelle, und die britische Finanzaufsicht FCA will noch 2026 einen Leitfaden veröffentlichen.
Für OpenAI stellt die Untersuchung eine fundamentale Herausforderung dar. Sollte die Staatsanwaltschaft fahrlässiges Verhalten oder Mittäterschaft nachweisen, könnte dies eine Neugestaltung der Sicherheitsfilter und Nutzerüberwachung erzwingen. Derweil laufen die Vorbereitungen für den Prozess gegen Phoenix Ikner – mit den KI-generierten Chat-Protokollen als zentralem Beweismittel der Anklage.
So schätzen die Börsenprofis Aktien ein!
Für. Immer. Kostenlos.
