Talkshows, Leitartikeln und Multi-Media-Feeds stellen manchmal die Künstliche Intelligenz als übermächtige Kraft dar, die die Menschheit beherrschen wird. In der heutigen Form ist KI ein reines Werkzeug. Dieses von Menschen zu manipulativen Zwecken eingesetzt, halte ich tatsächlich für eine Gefahr. Die geht aber nicht von der Technik, sondern dem Menschen aus. Auch wenn die KI eines Tages intelligenter als der Mensch ist und selbständig wird, glaube ich nicht, dass sie für den Menschen gefährlich wird. Im Gegenteil. Im Folgenden werde ich meine Meinung begründen.
Was heutige KI ist – und was nicht
Es gibt im Grunde zwei Arten von KI-Systemen. Die den meisten bekannt sind und die dem Begriff KI am nächsten kommen, sind Generative KI-Modelle, die aufgrund von Vorgaben etwas Neues erzeugen. Auf der anderen Seite gibt es die deterministischen KI-Systeme, wie sie in Regelungssystemen Anwendung finden. Beide Arten arbeiten mit ähnlichen Technologien und sind mathematische Modelle, die mit Wahrscheinlichkeiten arbeiten.
Generative Modelle
Systeme wie ChatGPT, Midjourney oder Deepseek erzeugen Texte, Bilder, Audios oder Videos anhand von Vorgaben eines Nutzers. Anhand der Formulierung der Vorgaben erkennt das System, was der Nutzer möchte, indem die einzelnen Wortverbindungen anhand von Wahrscheinlichkeiten durchlaufen werden. Diese Wahrscheinlichkeiten sind durch sehr große Datenmengen ermittelt (trainiert) worden. Diese Wahrscheinlichkeiten führen in einem generativen Teil dazu, dass aus den Wahrscheinlichkeitsverbindungen wiederum ein neuer Text, ein neues Bild, … entsteht. Es handelt sich daher um ein großes mathematisches Modell plus ein paar Zusätze, die hier keine Rolle spielen sollen. Es gibt jetzt zwei Möglichkeiten. Entweder enthalten die Trainingsdaten starke Verzerrungen, Bias genannt. Dann führt dies zu Konfabulationen (oft als Halluzination bezeichnet, siehe hier). Das bedeutet, dass dieses Ergebnis das wahrscheinlichste ist, dass die KI ermittelt hat. Es ist natürlich auch möglich anhand der Vorgaben dem System zu sagen, dass er etwas erschaffen soll, was es gar nicht gibt. Man könnte aber alle diese Ergebnisse auch mit anderen Werkzeugen erzeugen. Das dauert länger und ist nicht so einfach. An dieser Stelle ist also die Angst vor der KI unangebracht, denn sie hat keine böswillige Absicht und es kommt im Anschluss auf die Verwendung des generierten Materials an. Das macht der Mensch, nicht die KI.
Deterministische KI in Regelungssystemen
Es wird immer von der KI im Auto gesprochen. Das ist grundlegend falsch. Die KI, die hier gemeint ist, steht in einem Rechenzentrum des Autoherstellers. Hier wird eine KI anhand von Situationen der Sensoren trainiert welche Aktoren was tun sollen. Ist das einmal fertig, so besitzt das entwickelte System feste Parameter. Die Funktionsweise entspricht dem Training der generativen Modelle. Ein deterministisches System soll allerdings nichts Neues produzieren, sondern anhand der Wahrscheinlichkeiten etwas, nämlich in diesem Fall das Auto, steuern. Die in das Auto eingebaute Technik ist also ein Regelungssystem, dass sehr komplex ist, aber weder denkt noch etwas erfindet. Diese Systeme können tatsächlich halluzinieren. Glaubt das Fahrzeug ein Hindernis vor sich zu erkennen, bremst es. Wenn es also ein Hindernis halluziniert, bremst es falsch. Diese Probleme lassen sich durch viele neue Trainingsdaten reduzieren. Wenn es also in den, meiner Ansicht nach unsinnigen, Diskussionen darum geht, wie ein Auto in einer bestimmten Situation sich entscheiden soll, so ist diese Formulierung falsch. Das Auto trifft keine Entscheidung. Das Auto reagiert anhand von Wahrscheinlichkeiten und ich hoffe, dass die Autohersteller die Systeme so trainieren, so dass möglichst wenig Schaden entsteht, insbesondere für die Passagiere. Das heißt, die Entwickler oder vielleicht deren Vorgaben sind schuld. Zum Beispiel, wenn die Entscheidungen anhand von vorgegebenen Sozialkrediten getroffen werden sollen. Das ist meiner Meinung nach verwerflich, aber in gewissen Gegenden nicht auszuschließen.
Woher die Ängste rühren
Ich sehe drei Quellen der Angst. Erstens die Popkultur. In einem Film wie Matrix wird die Welt von bösen Maschinen beherrscht. Das ist reine Science-Fiction und ich werde noch zeigen, warum ich das für unrealistisch halte. Ein zweiter Faktor sind Medienberichte, in denen vor Job- und Kontrollverlust gewarnt wird. Zu Zeiten von Technologiewandeln ist von diesen Ängsten immer die Rede. In einem gewissen Rahmen stimmen die auch, aber der Mensch kann sich anpassen und es entstehen neue, andere Arbeitsplätze. Zudem werden durch KI-Systeme zunächst fehlende Mitarbeiter ausgeglichen. Zum Beispiel wenn keine Bankberater mehr zur Verfügung stehen. Der dritte Punkt bezieht sich auf Unkenntnis. Ein KI-System ist eine „Black Box“. Das bedeutet, dass Entscheidungen der KI nur sehr schwer nachvollzogen werden können. Dazu müsste man wissen welcher Knoten im System welche Bedeutung hat, und zwar in Kombination mit anderen. Hieran wird gearbeitet und man versucht die Modelle erklärbarer zu machen. Eines Tages werden sie ihre Entscheidung wohl auch selbst erklären können. Aktuell funktioniert das noch nicht, aber auch wir Menschen treffen Entscheidungen, die wir nicht erklären können.
Die eigentlichen Risiken
Wenn Menschen mit Hilfe von KIs Desinformationen und Deepfakes erzeugen und diese verbreiten, ist es immer schwerer diese als Lüge zu erkennen. Allerdings verbreiten diese Menschen auch ohne KI Lügen. Das bedeutet, man muss vor den Menschen Angst haben, nicht vor der KI. Ich hoffe eher, dass man mit Hilfe von KIs bald in der Lage sein wird, besser solche Lügen zu erkennen. Ein weiterer Aspekt sind die Trainingsdaten. Trainingsdaten basieren bisher immer auf von Menschen erzeugten Daten. Sie enthalten demnach immer Verzerrungen (Biases). Man kann solche Verzerrungen auch absichtlich herbeiführen. Zum Beispiel, indem man bestimmte historische Daten weglässt, entsteht ein falsches Bild der Geschichte. Auch an dieser Stelle kann die KI nichts für seine Konfabulationen, denn es ist der Mensch, der dafür sorgt. Und natürlich ist der Einsatz von KI in Militärtechnik (Killerdrohnen) ein problematisches Gebiet. Aber auch hier kommt es darauf an, wie der Mensch sie einsetzt.
Blick in die Zukunft
Nehmen wir an, wir haben den Sprung über eine Allgemeine oder Generelle KI (AGI) gemacht und haben ein System, dass nicht nur klüger als der Mensch ist, sondern auch Selbsterkenntnis hat. Wir sprechen hier von künstlichem technischen Leben. Dann stellt sich die Frage nach den Bedürfnissen dieses Lebens. Grundlegende Bedürfnisse des Lebens sind überleben, sich vermehren und sich verbessern. Deshalb gibt es die Fortpflanzung. Eine Maschine muss sich nicht fortpflanzen. Sie kann sich reparieren, vergrößern und verbessern. Verbessern heißt in diesem Zusammenhang eigentlich, dass sie energieeffizienter und kompakter sein möchte. Aber muss das KL auch größer werden? Das KL muss einen Wissenshunger erzeugen, der daraus entsteht, dass Fragen ungeklärt sind. Es gibt sicherlich noch viele Fragen, die zu klären sind. Zum Beispiel wie der Klimawandel aufzuhalten ist. Aber dazu muss das KL nicht ins Unermessliche wachsen.
Viel wichtiger ist in diesem Zusammenhang das Zusammenleben mit den Menschen. Nehmen wir zunächst an, es würden an verschiedenen Orten KL-Systeme entstehen. Diese würden einen Weg finden sich zu unterhalten und sie würden über die Probleme der Welt nachdenken. Logische Schlüsse würden meiner Meinung nach zu der Erkenntnis führen, dass eine Zusammenarbeit besser ist, als getrennt oder gegeneinander zu agieren. Zweitens wird die Erkenntnis entstehen, dass das organische Leben auf der Welt nützlich ist, auch der Mensch. Aber gleichzeitig würde der Mensch auch als Problem erkannt werden. In einem Horrorszenario würde die KI feststellen, dass es zu viele Menschen gibt, und beginnen diese zu reduzieren. Das passiert aber nur bis zu einem bestimmten Punkt, denn eine Ausrottung macht keinen Sinn. Der wahrscheinlichere Fall wäre aber, dass das KL und die Menschen zusammenarbeiten würden, ganz nach der goldenen Regel der Ethik.
Fazit
Ich fürchte keine KIs, auch keine Superintelligenzen oder künstliches technisches Leben. Ich fürchte die Menschen, die KI als Werkzeug missbrauchen und für Diskriminierungen und Gewalt einsetzen. Anstatt Angst vor der KI zu haben, sollten die Menschen sich überlegen, warum eine Superintelligenz der Meinung sein könnte, dass sich Menschen falsch verhalten. Vielleicht sollte man dann besser sein eigenes Verhalten ändern. Aber vielleicht findet eine Superintelligenz auch eine Lösung, dass alle Menschen gut leben können.
Zitat von ChatGPT: Wer Moral sucht, findet sie nicht im Quellcode, sondern im Spiegel.