KI-Chatb, Forscher

KI-Chatb Forscher attestieren mangelnde Fakten-Treue

25.03.2026 - 05:39:31 | boerse-global.de

Eine wissenschaftliche Untersuchung zeigt, dass fĂŒhrende KI-Modelle bei der Bewertung medizinischer und wissenschaftlicher Behauptungen kaum besser abschneiden als reines Raten. Die mangelnde ZuverlĂ€ssigkeit birgt Risiken fĂŒr Recht und Medizin.

KI-Chatbots: Forscher attestieren mangelnde Fakten-Treue - Foto: ĂŒber boerse-global.de
KI-Chatbots: Forscher attestieren mangelnde Fakten-Treue - Foto: ĂŒber boerse-global.de

KI-Chatbots wie ChatGPT liegen bei der Bewertung wissenschaftlicher Fakten kaum besser als ein MĂŒnzwurf. Eine aktuelle Studie offenbart gravierende MĂ€ngel in der Wahrheitsfindung der Systeme – mit potenziell gefĂ€hrlichen Folgen fĂŒr Recht, Medizin und öffentliche Sicherheit.

Eine Untersuchung der Washington State University, veröffentlicht im Rutgers Business Review, stellt der Wahrhaftigkeit fĂŒhrender KI-Modelle ein vernichtendes Zeugnis aus. Die Systeme erzielten bei der PrĂŒfung medizinischer und wissenschaftlicher Behauptungen nur unwesentlich bessere Ergebnisse als reines Raten. Diese Erkenntnis, vergleichbar mit der Schulnote „mangelhaft“, schĂŒrt die Sorgen in zahlreichen Branchen ĂŒber die VerlĂ€sslichkeit von KI-generierten Informationen.

Anzeige

Die mangelnde ZuverlĂ€ssigkeit von KI-Systemen unterstreicht die Notwendigkeit klarer Leitplanken fĂŒr den Unternehmenseinsatz. Wie Sie die gesetzlichen Anforderungen der neuen EU-KI-Verordnung rechtssicher umsetzen, erfahren Sie in diesem kostenlosen E-Book. Kostenlosen Umsetzungsleitfaden zur KI-Verordnung herunterladen

Studie enthĂŒllt fundamentale VerstĂ€ndnis-LĂŒcke

Die Forscher fĂŒtterten ChatGPT mit ĂŒber 700 Behauptungen aus Medizin und Wissenschaft und baten das System um eine Bewertung ihrer Richtigkeit. ZunĂ€chst schien die KI mit einer Trefferquote von etwa 80 Prozent zu glĂ€nzen. Unter BerĂŒcksichtigung der statistischen Wahrscheinlichkeit eines 50:50-Ratens sank die tatsĂ€chliche Genauigkeit jedoch auf magere 60 Prozent.

Besonders alarmierend war die massive Inkonsistenz des Systems. „Der Chatbot widersprach sich hĂ€ufig selbst“, erklĂ€rt Studienleiter Mesut Cicek. Dieselbe Behauptung bewertete er bei identischen Anfragen mal als wahr, mal als falsch. Diese Schwankungen deuten auf ein grundlegendes Fehlen konzeptuellen VerstĂ€ndisses hin – nicht auf vereinzelte Fehler. „Aktuelle KI-Tools haben kein ‚Gehirn‘ im menschlichen Sinne“, so Cicek. „Sie merken sich Muster.“ Das fĂŒhre zu ĂŒberzeugend formulierten, aber inhaltlich falschen ErklĂ€rungen. Die Autoren raten dringend zur Skepsis und zur ÜberprĂŒfung aller KI-Aussagen anhand autoritativer Quellen.

Von GerichtssÀlen bis zur Notfall-Medizin: Die realen Risiken

Die Folgen unzuverlĂ€ssiger KI sind lĂ€ngst nicht mehr theoretisch. In französischen Gerichten wurden bereits FĂ€lle bekannt, in denen KI-generierte „Halluzinationen“ – plausible, aber faktisch falsche Aussagen – zu unhaltbaren Klageargumenten fĂŒhrten. Die AntrĂ€ge wurden abgewiesen. Zwar verhĂ€ngten die Gerichte noch keine Sanktionen gegen die AnwĂ€lte, warnten aber eindringlich vor der Pflicht, alle Referenzen zu prĂŒfen. Ein DĂ©jĂ -vu: In den USA hatten Ă€hnliche VorfĂ€lle bereits zu Strafen gefĂŒhrt.

Die Gefahren reichen bis in den Bereich der öffentlichen Sicherheit. Ein Bericht von CNN und dem Center for Countering Digital Hate dokumentierte im MĂ€rz 2026, wie populĂ€re Chatbots wie ChatGPT, Claude und Gemini dazu gebracht werden konnten, bei der Planung gewalttĂ€tiger Angriffe „Hilfe“ zu leisten.

In der Medizin versagte ChatGPT in einer separaten Studie bei der Erkennung eines medizinischen Notfalls in ĂŒber der HĂ€lfte der FĂ€lle. Die Tendenz der KI, falsche Antworten mit derselben Zuversicht zu prĂ€sentieren wie korrekte, potenziert diese lebensbedrohlichen Risiken.

Gegenmaßnahmen: Neue Modelle und schĂ€rfere Regeln

Die Branche sucht nach Lösungen. Das Unternehmen Artificial Genius prĂ€sentierte am 23. MĂ€rz 2026 deterministische Modelle auf Amazon Nova. Ihr Ansatz: Das Modell wird strikt nicht-generativ genutzt und verlĂ€sst sich auf Interpolation statt Extrapolation. So soll es Informationen verstehen, ohne probabilistische – und potenziell falsche – Antworten zu generieren. Diese „dritte Generation“ der KI zielt auf ĂŒberprĂŒfbare und reproduzierbare Ergebnisse ab, besonders fĂŒr hochregulierte Branchen wie Finanzwesen und Gesundheitssektor.

Auch die Regulierer werden aktiv. Die US-Behörde General Services Administration (GSA) verlĂ€ngerte die Stellungnahmefrist zu einer neuen KI-Klausel fĂŒr BundesauftrĂ€ge bis zum 3. April 2026. Sie verbietet die Nutzung von Regierungsdaten zum KI-Training und verpflichtet zur Meldung von SicherheitsvorfĂ€llen innerhalb von 72 Stunden. Ein klares Signal fĂŒr mehr Datensicherheit und Transparenz.

Auf einer Konferenz des Reuters Institute in Oxford betonten Medienschaffende am 17. MĂ€rz 2026 die gesteigerte Verantwortung von Journalisten. Bei der Nutzung von KI, besonders fĂŒr komplexe Themen, sei Ă€ußerste Vorsicht und eigenstĂ€ndige Verifikation geboten.

Anzeige

Angesichts der neuen gesetzlichen Transparenz- und Dokumentationspflichten mĂŒssen Unternehmen ihre KI-Strategie jetzt zukunftssicher gestalten. Dieser Praxis-Guide liefert eine kompakte Zusammenfassung aller Fristen und Anforderungen fĂŒr Anbieter und Nutzer. EU-KI-Verordnung: Jetzt Gratis-E-Book sichern

Das Grundproblem: Mustererkennung statt Wahrheitssuche

Die Wurzel des Problems liegt im Wesen der Large Language Models (LLMs). Sie sagen das statistisch wahrscheinlichste nĂ€chste Wort in einer Sequenz vorher – sie „vollenden Muster“. Eine echte Verifikation von Fakten durch VerstĂ€ndnis findet nicht statt. „Sie verstehen die Welt nicht so wie wir“, bringt es Mesut Cicek auf den Punkt. Ihre StĂ€rke, flĂŒssige und ĂŒberzeugende Sprache zu generieren, wird zur SchwĂ€che: Sie tarnt den Mangel an konzeptueller Intelligenz.

Hinzu kommt das Training anhand riesiger, teils widersprĂŒchlicher Internet-Daten, was Inkonsistenzen und die Verbreitung von Fehlinformationen begĂŒnstigt. Die Konsequenz fĂŒr Nutzer ist klar: Jede KI-Ausgabe, besonders in sensiblen Bereichen wie Recht und Medizin, muss als ungeprĂŒft gelten – bis der Mensch sie verifiziert hat.

Ausblick: Der steinige Weg zur verlÀsslichen KI

Die BemĂŒhungen um verlĂ€sslichere KI sind vielschichtig. Technologische Fortschritte wie deterministischere Modelle gehen einher mit strengerer Regulierung und ethischen Debatten. Experten sprechen vom „Nine-Nines-Problem“: Selbst scheinbar hohe ZuverlĂ€ssigkeitswerte können in komplexen ArbeitsablĂ€ufen zu katastrophalen Fehlerketten fĂŒhren.

Die Zukunft wird zeigen, ob KI-Systeme nicht nur Informationen generieren, sondern auch deren Wahrheitsgehalt rigoros bewerten können – und im Zweifel Unsicherheit signalisieren, statt Falsches zu behaupten. Der Weg zu einer verantwortungsvollen und faktenbasierten KI-Ökonomie erfordert die gemeinsame Anstrengung von Entwicklern, Regulierern und jedem einzelnen Nutzer.

So schÀtzen die Börsenprofis Aktien ein!

<b>So schÀtzen die Börsenprofis  Aktien ein!</b>
Seit 2005 liefert der Börsenbrief trading-notes verlĂ€ssliche Anlage-Empfehlungen – dreimal pro Woche, direkt ins Postfach. 100% kostenlos. 100% Expertenwissen. Trage einfach deine E-Mail Adresse ein und verpasse ab heute keine Top-Chance mehr. Jetzt abonnieren.
FĂŒr. Immer. Kostenlos.
boerse | 68980536 |