Meine Masterarbeit auf der ICNLP 2025

Am Montag, den 24. März 2025, wird meine Masterarbeit im Rahmen der 7th International Conference on Natural Language Processing (ICNLP 2025) vorgestellt. Die Präsentation ist Teil des offiziellen Konferenzprogramms und wird im Online-Track durch meinen Betreuer, Prof. Dr. Tim Schlippe von der IU Internationalen Hochschule (https://www.iu.de), gezeigt.

📌 Titel der Arbeit:

Mitigating Bias in Large Language Models Leveraging Multi-Agent Scenarios

📍 Zeitslot:

CT0223 – Montag, 11:35–11:50 Uhr (GMT+8) (4:35 – 4:50 GMT+1; deutsche Zeit)

📍 Ort: Online-Präsentation auf der ICNLP 2025

In meiner Masterarbeit beschäftige ich mich mit der Frage, wie sich Verzerrungen (Bias) in großen Sprachmodellen reduzieren lassen. Der Fokus liegt dabei auf dem Einsatz von Multi-Agenten-Szenarien, in denen Agenten eines KI-Systems kooperieren, sich gegenseitig hinterfragen und dadurch zu faireren und robusteren Ergebnissen gelangen.

Es freut mich sehr, dass meine Arbeit auf einer internationalen Fachkonferenz zur Sprachverarbeitung vorgestellt wird. Vielleicht trägt sie ein kleines Stück zur weiteren Diskussion über verantwortungsbewussten KI-Einsatz bei.

Mehr zur Konferenz: https://www.icnlp.net

Eine KI halluziniert nicht!

Seit etwa 2018 wird der Begriff „Halluzination“ zunehmend im Zusammenhang mit den Ausgaben generativer KI verwendet. Auch wenn damit versucht wird, das Verhalten der KI zu vermenschlichen, ist der Begriff in diesem Kontext völlig unpassend. KI-Modelle arbeiten mit Wissen, das nicht wie in einer Datenbank strukturiert abgelegt ist, sondern auf statistischen Wahrscheinlichkeiten und Verknüpfungen beruht.

Ein praktisches Beispiel: Wenn ich ChatGPT frage, wann der Begriff „Halluzination“ erstmals im Zusammenhang mit KI verwendet wurde, erhalte ich eine scheinbar fundierte Antwort mit Arbeitstitel, Autorennamen und einem Link. Doch diese Angaben müssen inhaltlich überhaupt nichts miteinander zu tun haben. Das zeigt: Die KI liefert plausible, aber möglicherweise falsche Zuordnungen – nicht aus Täuschungsabsicht, sondern weil sie statistische Muster abschätzt. Deshalb darf man sich auf solche Angaben nicht blind verlassen. Aber handelt es sich dabei um eine Halluzination? Nein. Eine Halluzination ist per Definition eine WAHRNEHMUNG von etwas das nicht existiert. Eine KI nimmt jedoch gar nichts wahr – allenfalls die Reaktionen auf ihre Ausgaben. Wenn ein Kind in der Schule eine falsche Antwort gibt, würde man ihm schließlich auch keine Halluzination unterstellen.

Das korrekte Wort ist „Konfabulieren“. Es beschreibt den Umstand, dass jemand glaubt, etwas zu wissen – obwohl es objektiv falsch ist. Gibt man dieses vermeintliche Wissen weiter, erzählt man eine Geschichte, deren Wahrheitsgehalt nicht gesichert ist. Das lateinische „confabulatio“ bedeutet so viel wie Erzählung oder Tratsch. Davon abgeleitet ist auch das Wort „Fabulieren“. Der Unterschied: Beim Konfabulieren glaubt der Erzähler an die Richtigkeit seiner Aussage – beim Fabulieren weiß er, dass er sie erfindet. Vor 40 Jahren war „konfabulieren“ in meinem Umfeld noch deutlich geläufiger. Heute hört man kaum noch jemanden sagen: „Da konfabulierst du aber.“ Inzwischen wird der Begriff fast ausschließlich in der Psychologie verwendet. Dort wird es zum Beispiel für Fälle verwendet, bei der Gedächtnislücken mit falschem Wissen gefüllt werden. Ein Problem zum Beispiel bei der Zeugenbefragung.

Allerdings kann eine Halluzination auch bei KI-Systemen ein reales Problem darstellen – etwa bei Phantombremsungen autonomer Fahrzeuge. Diese können auf einer fehlerhaften Wahrnehmung der Umgebung basieren: Ein Sensor erkennt vermeintlich ein Hindernis – etwa durch Verschmutzung oder eine Spiegelung – obwohl gar keines vorhanden ist. In solchen Fällen liegt tatsächlich eine falsche Wahrnehmung vor, und der Begriff „Halluzination“ ist hier angemessen.