Warum ‚Halluzination‘ der falsche Begriff für KI ist

23.11.2025 • Wolfgang Greschus

Warum ‚Halluzination‘ der falsche Begriff für KI ist

Warum ‚Halluzination‘ der falsche Begriff für KI ist

Der Begriff ‚Halluzination‘ suggeriert, dass KI normalerweise weiß, was sie tut – und nur manchmal daneben liegt. Doch die Wahrheit ist:

KI weiß nie, was sie tut. 🧐

KI-Systeme wie ChatGPT berechnen statistisch wahrscheinliche Wortfolgen. Der Prozess ist immer derselbe – egal, ob die Antwort richtig oder falsch ist.

  • Korrekte Antworten entstehen nicht, weil die KI „die Wahrheit erkannt“ hat. Sie reproduziert lediglich Muster, die zufällig mit der Realität übereinstimmen.
  • Falsche Antworten (z. B. erfundene Quellen) entstehen genauso: Die KI folgt Mustern – nur passen diese diesmal nicht zur Realität.

Beispiel: KI und historische Fakten

Fragst du eine KI:

„Wann wurde die Berliner Mauer gebaut?“

Mögliche Antworten:

  1. „Die Berliner Mauer wurde 1961 erbaut.“Korrekt, weil dieser Fakt in den Trainingsdaten extrem häufig vorkommt.
  2. „Die Berliner Mauer wurde 1973 erbaut.“Falsch, aber warum? Vielleicht hat die KI in einem Text gelesen: „1973 wurde die Berliner Mauer verstärkt – und das Wort „Mauer“ mit dem Baujahr verknüpft. Oder es gab einen Tippfehler in den Trainingsdaten. Die KI weiß nicht, was „richtig“ ist – sie kombiniert nur Wortfolgen, die irgendwo im Trainingstext aufgetaucht sind.

In beiden Fällen hat die KI kein Wissen über die Berliner Mauer. Sie hat nur Muster reproduziert – mal passend, mal nicht.

Warum ‚Halluzination‘ irreführend ist

Es gibt keinen ‚Normalzustand des Wissens‘ bei KI. Der Begriff ‚Halluzination‘ impliziert, dass es einen Standard gibt, von dem die KI abweicht. Doch in Wahrheit ist KI immer nur: Mustervorhersage. Manchmal trifft’s zu. Manchmal nicht.

Und natürlich: KI weiß nichts. Sie berechnet nur. 🤓