12. September 2025

OpenAI warnt: Warum Halluzinationen bei KI-Chatbots bleiben werden

OpenAI hat ein neues wissenschaftliches Paper veröffentlicht – und die Erkenntnisse sind für viele Nutzer ernüchternd: Halluzinationen, also falsche Antworten von KI-Modellen, lassen sich nicht komplett ausschalten.

Doch was steckt dahinter? Und welche Lösungen sehen die Forscher?

Halluzinationen gehören zum Kernproblem von Large Language Models. Während sich Fehler bei Rechtschreibung oder Klammern mit wachsender Modellgröße immer weiter verringern, bleiben seltene Fakten ein Stolperstein. Geburtstage oder zufällige Ereignisse folgen keinen Mustern – genau das aber ist die Grundlage, aus der KI lernt.

Hinzu kommt ein zweiter Aspekt: LLMs sind so trainiert, dass sie lieber irgendeine Antwort geben, als zu schweigen. OpenAI vergleicht dieses Verhalten mit einem Multiple-Choice-Test: Auch wer rät, hat zumindest eine kleine Chance, richtig zu liegen. Das führt allerdings dazu, dass Chatbots mitunter falsche, aber selbstbewusst formulierte Antworten liefern.

Im Paper schlagen die Autoren vor, falsche Antworten stärker zu bestrafen und Nicht-Antworten zumindest teilweise zu belohnen. Das könnte den „Raterefex“ der Modelle bremsen. Auch sogenanntes Reasoning – also das Erklären der eigenen Schlussfolgerungen – verringert die Fehlerquote. Doch selbst OpenAI hält es für ausgeschlossen, dass KI-Modelle jemals völlig halluzinationsfrei arbeiten werden.

Am Ende steht eine klare Botschaft: KI wird niemals 100 Prozent korrekt sein – und sollte lernen, lieber nichts zu sagen, als falsche Fakten zu produzieren.


Wir führen seit Jahren Beratung zu KI (Künstlicher Intelligenz) für KMUs (Klein- und Mittelständische Unternehmen) erfolgreich durch.

Mehr zu aktuellen Themen der #KI (Künstlichen Intelligenz) oder zu

Ihrem individuellen, optimalen "KI-Masterplan" für Ihr Unternehmen finden Sie in unserem Newsletter.

Abonnieren Sie den Newsletter hier:


Tags


Das könnte Sie auch interessieren

Abonnieren Sie jetzt unseren Newsletter!

>