KI-Halluzinationen sind ein typisches Problem großer Sprachmodelle: plausibel klingende, aber nicht-objektive Ausgaben. Ursachen sind schlechte Daten, mathematischer Ansatz und Sampling-Verfahren – nicht böse Absicht. Der Begriff ist bildlich, aber nicht genau – darum spricht man auch von Konfabulation oder Fehlern in der Faktenwiedergabe.
