OpenAI hat ein neues wissenschaftliches Paper veröffentlicht – und die Erkenntnisse sind für viele Nutzer ernüchternd: Halluzinationen, also falsche Antworten von KI-Modellen, lassen sich nicht komplett ausschalten.
Doch was steckt dahinter? Und welche Lösungen sehen die Forscher?
Halluzinationen gehören zum Kernproblem von Large Language Models. Während sich Fehler bei Rechtschreibung oder Klammern mit wachsender Modellgröße immer weiter verringern, bleiben seltene Fakten ein Stolperstein. Geburtstage oder zufällige Ereignisse folgen keinen Mustern – genau das aber ist die Grundlage, aus der KI lernt.
Hinzu kommt ein zweiter Aspekt: LLMs sind so trainiert, dass sie lieber irgendeine Antwort geben, als zu schweigen. OpenAI vergleicht dieses Verhalten mit einem Multiple-Choice-Test: Auch wer rät, hat zumindest eine kleine Chance, richtig zu liegen. Das führt allerdings dazu, dass Chatbots mitunter falsche, aber selbstbewusst formulierte Antworten liefern.
Im Paper schlagen die Autoren vor, falsche Antworten stärker zu bestrafen und Nicht-Antworten zumindest teilweise zu belohnen. Das könnte den „Raterefex“ der Modelle bremsen. Auch sogenanntes Reasoning – also das Erklären der eigenen Schlussfolgerungen – verringert die Fehlerquote. Doch selbst OpenAI hält es für ausgeschlossen, dass KI-Modelle jemals völlig halluzinationsfrei arbeiten werden.
Am Ende steht eine klare Botschaft: KI wird niemals 100 Prozent korrekt sein – und sollte lernen, lieber nichts zu sagen, als falsche Fakten zu produzieren.