KI-Halluzinationen – auch Konfabulationen genannt – sind überzeugend formulierte Antworten von KI-Systemen, die faktisch falsch oder frei erfunden sind. Sie sehen oft glaubwürdig aus, basieren aber nicht auf echten Daten. Sie entstehen beispielsweise durch:
unvollständiges oder fehlerhaftes Training: Wenn die Daten verrauscht oder unvollständig sind, kann das Modell fälschlicherweise Muster “raten”.
Statistische Textgenerierung statt Verständnis: KI wählt rein nach Wahrscheinlichkeit, nicht nach Faktenwissen.
Komplexität der Algorithmen: Sampling-Methoden, Überanpassung oder tokenbasierte Auswahl können Fehler erzeugen.
