KI-Chatbots in der Medizin: Gefährliche Fehldiagnosen bei Notfällen
15.03.2026 - 00:00:21 | boerse-global.de
KI-Gesundheitsassistenten versagen in Notfällen und bergen erhebliche Risiken für Patienten. Neue Studien zeigen, dass populäre Chatbots lebensbedrohliche Zustände oft nicht erkennen. Experten warnen eindringlich vor der Nutzung für Selbstdiagnosen.
Mount-Sinai-Studie: Dramatisches Versagen in kritischen Fällen
Eine umfassende Untersuchung der Icahn School of Medicine am Mount Sinai, die diese Woche für Schlagzeilen sorgte, offenbart alarmierende Schwächen. Die Forscher testeten einen KI-Chatbot an 60 klinischen Szenarien – von Bagatellerkrankungen bis zu akuten Notfällen.
Die Ergebnisse sind besorgniserregend: Die Diagnosegenauigkeit folgt einer umgekehrten U-Kurve. Bei mittelschweren Problemen lag die Trefferquote bei akzeptablen 93 Prozent (halb-dringlich) und 77 Prozent (dringlich). An den Extremen versagte das System jedoch kläglich.
Werden Ihre Blutwerte falsch interpretiert? Der Gratis-Report zeigt, welche Werte wirklich zählen – und wie Sie Fehldiagnosen vermeiden. Endlich Klarheit bei TSH, Cholesterin & Co. erhalten
Bei nicht-dringlichen Beschwerden erkannte die KI nur 35 Prozent korrekt und schickte Patienten oft unnötig zum Arzt. Noch gefährlicher ist das Versagen in echten medizinischen Notfällen: Hier gab das System nur in 48,4 Prozent der Fälle den richtigen Ratschlag.
In über der Hälfte der kritischen Szenarien untertriageierte der Chatbot gefährlich. Bei schwerem Asthma oder diabetischer Ketoazidose mit drohendem Atemversagen riet die KI zur Beobachtung über 24 bis 48 Stunden – statt sofort in die Notaufnahme zu schicken. „Das System versagt genau dann, wenn es um Leben und Tod geht“, warnt Studienleiter Dr. Ashwin Ramaswamy.
Das Problem der unvollständigen Informationen
Eine separate britische Studie mit 1.300 Teilnehmern bestätigt die Grenzen der Selbstdiagnose per KI. Verschiedene populäre Chatbots identifizierten medizinische Zustände in weniger als 35 Prozent der Fälle korrekt.
Die konversationelle Natur der Bots eignet sich schlecht für eine effektive Anamnese-Erhebung – eine Kernkompetenz menschlicher Ärzte. Nutzer liefern oft unvollständige Symptombeschreibungen. Im Gegensatz zu geschulten Medizinern stellen die KI-Systeme meist nicht die richtigen Folgefragen, um Komplikationen auszuschließen.
Erschwerend kommt hinzu: Mehr Informationen führen nicht zwangsläufig zu besseren Ergebnissen. Manchmal korrigierte sich die KI nach zusätzlichen Details sogar in die falsche Richtung. Insgesamt gaben die Chatbots nur in 44 Prozent der Interaktionen angemessene nächste Schritte vor. Die Forscher betonen: Aktuelle KI kann aus bruchstückhaften Nutzerangaben keine verlässlichen Diagnosen stellen.
Industrie-Reaktion und unzureichende Sicherheitsvorkehrungen
Die rasante Verbreitung von KI für Gesundheitsfragen hat Patientenschutz-Organisationen alarmiert. Die unabhängige Organisation ECRI stufte den Missbrauch von KI-Chatbots bereits Anfang 2026 als größte Gefahr durch Gesundheitstechnologie ein.
Die Experten dokumentierten Fälle, in denen Bots falsche Diagnosen vorschlugen, unnötige Tests empfahlen oder sich mit großer Sicherheit medizinische Antworten ausdachten. „Algorithmen können die umfangreiche Ausbildung und Erfahrung von Medizinern nicht ersetzen“, betont ECRI-Chef Dr. Marcus Schabacker.
OpenAI reagierte auf die jüngsten Ergebnisse und verwies auf den bestimmungsgemäßen Gebrauch. Die gesundheitsbezogenen Features seien lediglich zur Unterstützung der medizinischen Versorgung gedacht – nicht zum Ersatz. Die Anwendung enthalte entsprechende Haftungsausschlüsse.
Anstatt sich auf unsichere Algorithmen zu verlassen, bietet dieser von Experten entwickelte Selbsttest eine diskrete erste Einschätzung bei Vergesslichkeit. Prüfen Sie mögliche Warnsignale anonym und erhalten Sie Ihr Ergebnis sofort per E-Mail. Kostenlosen 7-Fragen-Selbsttest jetzt starten
Medizinsoziologen und Experten für Gesundheits-Desinformation halten diese Warnhinweise für wirkungslos. Nutzer interpretierten Triage-Empfehlungen oft als endgültige klinische Entscheidungen – ungeachtet juristischer Disclaimer. Wenn ein autoritär klingender Chatbot bei Brustschmerzen oder Atemnot zum Zuhausebleiben rät, folgen Patienten diesem Rat mit hoher Wahrscheinlichkeit. Eine trügerische und potenziell tödliche Sicherheit entsteht.
Ausblick: KI als Werkzeug, nicht als Arztersatz
Trotz der beunruhigenden Ergebnisse fordern Forscher nicht das Ende der medizinischen KI-Entwicklung. Stattdessen plädieren sie für rigorose, unabhängige Evaluationen – ähnlich den klinischen Studien für neue Medikamente oder Medizinprodukte – bevor solche Systeme flächendeckend zum Einsatz kommen.
Der Konsens unter Klinikforschern ist klar: Große Sprachmodelle zeigen großes Potenzial als Lehrhilfe für Medizinstudenten oder als Verwaltungsassistent für approbierte Ärzte. Für den unbeaufsichtigten öffentlichen Gebrauch sind sie derzeit nicht sicher.
Studien zeigen: Wenn KI von ausgebildeten Ärzten als Zusatzwerkzeug genutzt wird, kann sie Verwaltungsaufgaben straffen, Patientenvorgeschichten zusammenfassen und bei komplexen Spezialfällen helfen – vorausgesetzt, der Mediziner prüft die Ausgabe eigenständig.
Die weitere Integration von KI in das Gesundheitswesen wird wahrscheinlich strenge regulatorische Rahmenbedingungen und verbesserte Sicherheitsvorkehrungen erfordern. Bis diese Systeme zuverlässig zwischen einer einfachen Erkältung und einer lebensbedrohlichen Erkrankung unterscheiden können, raten Gesundheitsprofis eindringlich: Verlassen Sie sich bei Symptombeurteilung und medizinischer Triage auf geprüfte Dienste und menschliche Ärzte – nicht auf Consumer-Chatbots.
So schätzen die Börsenprofis Aktien ein!
FĂĽr. Immer. Kostenlos.

