Eine KI halluziniert nicht!

Seit etwa 2018 wird der Begriff „Halluzination“ zunehmend im Zusammenhang mit den Ausgaben generativer KI verwendet. Auch wenn damit versucht wird, das Verhalten der KI zu vermenschlichen, ist der Begriff in diesem Kontext völlig unpassend. KI-Modelle arbeiten mit Wissen, das nicht wie in einer Datenbank strukturiert abgelegt ist, sondern auf statistischen Wahrscheinlichkeiten und Verknüpfungen beruht.

Ein praktisches Beispiel: Wenn ich ChatGPT frage, wann der Begriff „Halluzination“ erstmals im Zusammenhang mit KI verwendet wurde, erhalte ich eine scheinbar fundierte Antwort mit Arbeitstitel, Autorennamen und einem Link. Doch diese Angaben müssen inhaltlich überhaupt nichts miteinander zu tun haben. Das zeigt: Die KI liefert plausible, aber möglicherweise falsche Zuordnungen – nicht aus Täuschungsabsicht, sondern weil sie statistische Muster abschätzt. Deshalb darf man sich auf solche Angaben nicht blind verlassen. Aber handelt es sich dabei um eine Halluzination? Nein. Eine Halluzination ist per Definition eine WAHRNEHMUNG von etwas das nicht existiert. Eine KI nimmt jedoch gar nichts wahr – allenfalls die Reaktionen auf ihre Ausgaben. Wenn ein Kind in der Schule eine falsche Antwort gibt, würde man ihm schließlich auch keine Halluzination unterstellen.

Das korrekte Wort ist „Konfabulieren“. Es beschreibt den Umstand, dass jemand glaubt, etwas zu wissen – obwohl es objektiv falsch ist. Gibt man dieses vermeintliche Wissen weiter, erzählt man eine Geschichte, deren Wahrheitsgehalt nicht gesichert ist. Das lateinische „confabulatio“ bedeutet so viel wie Erzählung oder Tratsch. Davon abgeleitet ist auch das Wort „Fabulieren“. Der Unterschied: Beim Konfabulieren glaubt der Erzähler an die Richtigkeit seiner Aussage – beim Fabulieren weiß er, dass er sie erfindet. Vor 40 Jahren war „konfabulieren“ in meinem Umfeld noch deutlich geläufiger. Heute hört man kaum noch jemanden sagen: „Da konfabulierst du aber.“ Inzwischen wird der Begriff fast ausschließlich in der Psychologie verwendet. Dort wird es zum Beispiel für Fälle verwendet, bei der Gedächtnislücken mit falschem Wissen gefüllt werden. Ein Problem zum Beispiel bei der Zeugenbefragung.

Allerdings kann eine Halluzination auch bei KI-Systemen ein reales Problem darstellen – etwa bei Phantombremsungen autonomer Fahrzeuge. Diese können auf einer fehlerhaften Wahrnehmung der Umgebung basieren: Ein Sensor erkennt vermeintlich ein Hindernis – etwa durch Verschmutzung oder eine Spiegelung – obwohl gar keines vorhanden ist. In solchen Fällen liegt tatsächlich eine falsche Wahrnehmung vor, und der Begriff „Halluzination“ ist hier angemessen.