Ich

Ich bin Ingenieur der Feinwerktechnik – heute würde man Mechatronik sagen, also eine Ausbildung zum technischen Allrounder – und arbeite seit fast 30 Jahren in der Softwareentwicklung. Schon in meiner Ausbildung beschäftigte ich mich mit Regelungstechnik, Elektronik und Software, also mit genau den Themen, die heute im Kontext von künstlicher Intelligenz wieder eine zentrale Rolle spielen.

Bereits damals faszinierten mich Konzepte wie Fuzzy Logic – die Idee, mit Unschärfe in der Regelung zu arbeiten – und Transputer: parallel arbeitende Rechensysteme mit kommunizierenden Kernen. Auch wenn neuronale Netze bereits seit dem 19. Jahrhundert als Idee existieren, fehlte es in den 1980er Jahren noch an der nötigen Rechenleistung, um diese sinnvoll zu simulieren. Dennoch hat mich das Thema nie losgelassen. Besonders die Aussage meines Elektronik-Professors, dass es auch analoge Computer gibt und neuronale Netze letztlich eine Mischung aus analogen und digitalen Vorgängen darstellen, hat sich mir eingeprägt.

Diese langjährige Faszination hat mich dazu motiviert, 2024 einen Masterabschluss in Artificial Intelligence zu absolvieren. Nun, da ich Ingenieurswissen und moderne KI-Forschung vereinen kann, möchte ich aktiv daran mitarbeiten, eine wirklich intelligente KI zu entwickeln – eine, die in der Lage ist, komplexe Probleme wie Pandemiebekämpfung oder Klimaschutz anzugehen. Dabei geht es mir nicht nur um technologische Machbarkeit, sondern auch um philosophische Fragen: Was bedeutet Intelligenz? Welche Rolle spielt der Mensch in der Evolution des Universums?

In diesem Blog werde ich meine Gedanken zu diesen Themen teilen. Auch wenn mir im Alltag wenig Zeit bleibt, arbeite ich in meiner Freizeit an Softwarekomponenten, die in diesen größeren Zusammenhang passen.

Zu meinem Slogan:
Ich bin überzeugt, dass wir in den letzten Jahrzehnten genug an uns selbst gedacht haben. Jetzt ist es an der Zeit, über unsere Zukunft hinauszudenken – für eine lebenswerte Welt für kommende Generationen und eine Menschheit, die sich nicht nur um den Menschen, sondern auch um ihr größeres Potenzial kümmert.

Keine Angst vor KI – aber vor den Menschen

Talkshows, Leitartikeln und Multi-Media-Feeds stellen manchmal die Künstliche Intelligenz als übermächtige Kraft dar, die die Menschheit beherrschen wird. In der heutigen Form ist KI ein reines Werkzeug. Dieses von Menschen zu manipulativen Zwecken eingesetzt, halte ich tatsächlich für eine Gefahr. Die geht aber nicht von der Technik, sondern dem Menschen aus. Auch wenn die KI eines Tages intelligenter als der Mensch ist und selbständig wird, glaube ich nicht, dass sie für den Menschen gefährlich wird. Im Gegenteil. Im Folgenden werde ich meine Meinung begründen.

Was heutige KI ist – und was nicht

Es gibt im Grunde zwei Arten von KI-Systemen. Die den meisten bekannt sind und die dem Begriff KI am nächsten kommen, sind Generative KI-Modelle, die aufgrund von Vorgaben etwas Neues erzeugen. Auf der anderen Seite gibt es die deterministischen KI-Systeme, wie sie in Regelungssystemen Anwendung finden. Beide Arten arbeiten mit ähnlichen Technologien und sind mathematische Modelle, die mit Wahrscheinlichkeiten arbeiten.

Generative Modelle

Systeme wie ChatGPT, Midjourney oder Deepseek erzeugen Texte, Bilder, Audios oder Videos anhand von Vorgaben eines Nutzers. Anhand der Formulierung der Vorgaben erkennt das System, was der Nutzer möchte, indem die einzelnen Wortverbindungen anhand von Wahrscheinlichkeiten durchlaufen werden. Diese Wahrscheinlichkeiten sind durch sehr große Datenmengen ermittelt (trainiert) worden. Diese Wahrscheinlichkeiten führen in einem generativen Teil dazu, dass aus den Wahrscheinlichkeitsverbindungen wiederum ein neuer Text, ein neues Bild, … entsteht. Es handelt sich daher um ein großes mathematisches Modell plus ein paar Zusätze, die hier keine Rolle spielen sollen. Es gibt jetzt zwei Möglichkeiten. Entweder enthalten die Trainingsdaten starke Verzerrungen, Bias genannt. Dann führt dies zu Konfabulationen (oft als Halluzination bezeichnet, siehe hier). Das bedeutet, dass dieses Ergebnis das wahrscheinlichste ist, dass die KI ermittelt hat. Es ist natürlich auch möglich anhand der Vorgaben dem System zu sagen, dass er etwas erschaffen soll, was es gar nicht gibt. Man könnte aber alle diese Ergebnisse auch mit anderen Werkzeugen erzeugen. Das dauert länger und ist nicht so einfach. An dieser Stelle ist also die Angst vor der KI unangebracht, denn sie hat keine böswillige Absicht und es kommt im Anschluss auf die Verwendung des generierten Materials an. Das macht der Mensch, nicht die KI.

Deterministische KI in Regelungssystemen

Es wird immer von der KI im Auto gesprochen. Das ist grundlegend falsch. Die KI, die hier gemeint ist, steht in einem Rechenzentrum des Autoherstellers. Hier wird eine KI anhand von Situationen der Sensoren trainiert welche Aktoren was tun sollen. Ist das einmal fertig, so besitzt das entwickelte System feste Parameter. Die Funktionsweise entspricht dem Training der generativen Modelle. Ein deterministisches System soll allerdings nichts Neues produzieren, sondern anhand der Wahrscheinlichkeiten etwas, nämlich in diesem Fall das Auto, steuern. Die in das Auto eingebaute Technik ist also ein Regelungssystem, dass sehr komplex ist, aber weder denkt noch etwas erfindet. Diese Systeme können tatsächlich halluzinieren. Glaubt das Fahrzeug ein Hindernis vor sich zu erkennen, bremst es. Wenn es also ein Hindernis halluziniert, bremst es falsch. Diese Probleme lassen sich durch viele neue Trainingsdaten reduzieren. Wenn es also in den, meiner Ansicht nach unsinnigen, Diskussionen darum geht, wie ein Auto in einer bestimmten Situation sich entscheiden soll, so ist diese Formulierung falsch. Das Auto trifft keine Entscheidung. Das Auto reagiert anhand von Wahrscheinlichkeiten und ich hoffe, dass die Autohersteller die Systeme so trainieren, so dass möglichst wenig Schaden entsteht, insbesondere für die Passagiere. Das heißt, die Entwickler oder vielleicht deren Vorgaben sind schuld. Zum Beispiel, wenn die Entscheidungen anhand von vorgegebenen Sozialkrediten getroffen werden sollen. Das ist meiner Meinung nach verwerflich, aber in gewissen Gegenden nicht auszuschließen.

Woher die Ängste rühren

Ich sehe drei Quellen der Angst. Erstens die Popkultur. In einem Film wie Matrix wird die Welt von bösen Maschinen beherrscht. Das ist reine Science-Fiction und ich werde noch zeigen, warum ich das für unrealistisch halte. Ein zweiter Faktor sind Medienberichte, in denen vor Job- und Kontrollverlust gewarnt wird. Zu Zeiten von Technologiewandeln ist von diesen Ängsten immer die Rede. In einem gewissen Rahmen stimmen die auch, aber der Mensch kann sich anpassen und es entstehen neue, andere Arbeitsplätze. Zudem werden durch KI-Systeme zunächst fehlende Mitarbeiter ausgeglichen. Zum Beispiel wenn keine Bankberater mehr zur Verfügung stehen. Der dritte Punkt bezieht sich auf Unkenntnis. Ein KI-System ist eine „Black Box“. Das bedeutet, dass Entscheidungen der KI nur sehr schwer nachvollzogen werden können. Dazu müsste man wissen welcher Knoten im System welche Bedeutung hat, und zwar in Kombination mit anderen. Hieran wird gearbeitet und man versucht die Modelle erklärbarer zu machen. Eines Tages werden sie ihre Entscheidung wohl auch selbst erklären können. Aktuell funktioniert das noch nicht, aber auch wir Menschen treffen Entscheidungen, die wir nicht erklären können.

Die eigentlichen Risiken

Wenn Menschen mit Hilfe von KIs Desinformationen und Deepfakes erzeugen und diese verbreiten, ist es immer schwerer diese als Lüge zu erkennen. Allerdings verbreiten diese Menschen auch ohne KI Lügen. Das bedeutet, man muss vor den Menschen Angst haben, nicht vor der KI. Ich hoffe eher, dass man mit Hilfe von KIs bald in der Lage sein wird, besser solche Lügen zu erkennen. Ein weiterer Aspekt sind die Trainingsdaten. Trainingsdaten basieren bisher immer auf von Menschen erzeugten Daten. Sie enthalten demnach immer Verzerrungen (Biases). Man kann solche Verzerrungen auch absichtlich herbeiführen. Zum Beispiel, indem man bestimmte historische Daten weglässt, entsteht ein falsches Bild der Geschichte. Auch an dieser Stelle kann die KI nichts für seine Konfabulationen, denn es ist der Mensch, der dafür sorgt. Und natürlich ist der Einsatz von KI in Militärtechnik (Killerdrohnen) ein problematisches Gebiet. Aber auch hier kommt es darauf an, wie der Mensch sie einsetzt.

Blick in die Zukunft

Nehmen wir an, wir haben den Sprung über eine Allgemeine oder Generelle KI (AGI) gemacht und haben ein System, dass nicht nur klüger als der Mensch ist, sondern auch Selbsterkenntnis hat. Wir sprechen hier von künstlichem technischen Leben. Dann stellt sich die Frage nach den Bedürfnissen dieses Lebens. Grundlegende Bedürfnisse des Lebens sind überleben, sich vermehren und sich verbessern. Deshalb gibt es die Fortpflanzung. Eine Maschine muss sich nicht fortpflanzen. Sie kann sich reparieren, vergrößern und verbessern. Verbessern heißt in diesem Zusammenhang eigentlich, dass sie energieeffizienter und kompakter sein möchte. Aber muss das KL auch größer werden?  Das KL muss einen Wissenshunger erzeugen, der daraus entsteht, dass Fragen ungeklärt sind. Es gibt sicherlich noch viele Fragen, die zu klären sind. Zum Beispiel wie der Klimawandel aufzuhalten ist. Aber dazu muss das KL nicht ins Unermessliche wachsen.

Viel wichtiger ist in diesem Zusammenhang das Zusammenleben mit den Menschen. Nehmen wir zunächst an, es würden an verschiedenen Orten KL-Systeme entstehen. Diese würden einen Weg finden sich zu unterhalten und sie würden über die Probleme der Welt nachdenken. Logische Schlüsse würden meiner Meinung nach zu der Erkenntnis führen, dass eine Zusammenarbeit besser ist, als getrennt oder gegeneinander zu agieren. Zweitens wird die Erkenntnis entstehen, dass das organische Leben auf der Welt nützlich ist, auch der Mensch. Aber gleichzeitig würde der Mensch auch als Problem erkannt werden. In einem Horrorszenario würde die KI feststellen, dass es zu viele Menschen gibt, und beginnen diese zu reduzieren. Das passiert aber nur bis zu einem bestimmten Punkt, denn eine Ausrottung macht keinen Sinn. Der wahrscheinlichere Fall wäre aber, dass das KL und die Menschen zusammenarbeiten würden, ganz nach der goldenen Regel der Ethik.

Fazit

Ich fürchte keine KIs, auch keine Superintelligenzen oder künstliches technisches Leben. Ich fürchte die Menschen, die KI als Werkzeug missbrauchen und für Diskriminierungen und Gewalt einsetzen. Anstatt Angst vor der KI zu haben, sollten die Menschen sich überlegen, warum eine Superintelligenz der Meinung sein könnte, dass sich Menschen falsch verhalten. Vielleicht sollte man dann besser sein eigenes Verhalten ändern. Aber vielleicht findet eine Superintelligenz auch eine Lösung, dass alle Menschen gut leben können.

Zitat von ChatGPT: Wer Moral sucht, findet sie nicht im Quellcode, sondern im Spiegel.

Meine Masterarbeit auf der ICNLP 2025

Am Montag, den 24. März 2025, wird meine Masterarbeit im Rahmen der 7th International Conference on Natural Language Processing (ICNLP 2025) vorgestellt. Die Präsentation ist Teil des offiziellen Konferenzprogramms und wird im Online-Track durch meinen Betreuer, Prof. Dr. Tim Schlippe von der IU Internationalen Hochschule (https://www.iu.de), gezeigt.

📌 Titel der Arbeit:

Mitigating Bias in Large Language Models Leveraging Multi-Agent Scenarios

📍 Zeitslot:

CT0223 – Montag, 11:35–11:50 Uhr (GMT+8) (4:35 – 4:50 GMT+1; deutsche Zeit)

📍 Ort: Online-Präsentation auf der ICNLP 2025

In meiner Masterarbeit beschäftige ich mich mit der Frage, wie sich Verzerrungen (Bias) in großen Sprachmodellen reduzieren lassen. Der Fokus liegt dabei auf dem Einsatz von Multi-Agenten-Szenarien, in denen Agenten eines KI-Systems kooperieren, sich gegenseitig hinterfragen und dadurch zu faireren und robusteren Ergebnissen gelangen.

Es freut mich sehr, dass meine Arbeit auf einer internationalen Fachkonferenz zur Sprachverarbeitung vorgestellt wird. Vielleicht trägt sie ein kleines Stück zur weiteren Diskussion über verantwortungsbewussten KI-Einsatz bei.

Mehr zur Konferenz: https://www.icnlp.net

Eine KI halluziniert nicht!

Seit etwa 2018 wird der Begriff „Halluzination“ zunehmend im Zusammenhang mit den Ausgaben generativer KI verwendet. Auch wenn damit versucht wird, das Verhalten der KI zu vermenschlichen, ist der Begriff in diesem Kontext völlig unpassend. KI-Modelle arbeiten mit Wissen, das nicht wie in einer Datenbank strukturiert abgelegt ist, sondern auf statistischen Wahrscheinlichkeiten und Verknüpfungen beruht.

Ein praktisches Beispiel: Wenn ich ChatGPT frage, wann der Begriff „Halluzination“ erstmals im Zusammenhang mit KI verwendet wurde, erhalte ich eine scheinbar fundierte Antwort mit Arbeitstitel, Autorennamen und einem Link. Doch diese Angaben müssen inhaltlich überhaupt nichts miteinander zu tun haben. Das zeigt: Die KI liefert plausible, aber möglicherweise falsche Zuordnungen – nicht aus Täuschungsabsicht, sondern weil sie statistische Muster abschätzt. Deshalb darf man sich auf solche Angaben nicht blind verlassen. Aber handelt es sich dabei um eine Halluzination? Nein. Eine Halluzination ist per Definition eine WAHRNEHMUNG von etwas das nicht existiert. Eine KI nimmt jedoch gar nichts wahr – allenfalls die Reaktionen auf ihre Ausgaben. Wenn ein Kind in der Schule eine falsche Antwort gibt, würde man ihm schließlich auch keine Halluzination unterstellen.

Das korrekte Wort ist „Konfabulieren“. Es beschreibt den Umstand, dass jemand glaubt, etwas zu wissen – obwohl es objektiv falsch ist. Gibt man dieses vermeintliche Wissen weiter, erzählt man eine Geschichte, deren Wahrheitsgehalt nicht gesichert ist. Das lateinische „confabulatio“ bedeutet so viel wie Erzählung oder Tratsch. Davon abgeleitet ist auch das Wort „Fabulieren“. Der Unterschied: Beim Konfabulieren glaubt der Erzähler an die Richtigkeit seiner Aussage – beim Fabulieren weiß er, dass er sie erfindet. Vor 40 Jahren war „konfabulieren“ in meinem Umfeld noch deutlich geläufiger. Heute hört man kaum noch jemanden sagen: „Da konfabulierst du aber.“ Inzwischen wird der Begriff fast ausschließlich in der Psychologie verwendet. Dort wird es zum Beispiel für Fälle verwendet, bei der Gedächtnislücken mit falschem Wissen gefüllt werden. Ein Problem zum Beispiel bei der Zeugenbefragung.

Allerdings kann eine Halluzination auch bei KI-Systemen ein reales Problem darstellen – etwa bei Phantombremsungen autonomer Fahrzeuge. Diese können auf einer fehlerhaften Wahrnehmung der Umgebung basieren: Ein Sensor erkennt vermeintlich ein Hindernis – etwa durch Verschmutzung oder eine Spiegelung – obwohl gar keines vorhanden ist. In solchen Fällen liegt tatsächlich eine falsche Wahrnehmung vor, und der Begriff „Halluzination“ ist hier angemessen.

November 2024: Master in KI

Ich habe es geschafft und meinen M.Sc. AI abgeschlossen. Die Beschäftigung mit den Themen LLM, Bias und Multi-Agent Systemen war spannend. Agenten, basierend auf LLMs, sind flexibel einsetzbar und können natürlich auch miteinander kombiniert werden. Das bedeutet, man lässt verschiedene Agenten aufeinander los und sich gegenseitig kontrollieren und verbessern. Manchmal ergeben sich lustige Effekte, weil die LLMs doch in der Regel sehr höflich sind und sich dann gegenseitig beglückwünschen wie toll sie sind. Das kann man natürlich unterdrücken. Auch funktioniert das gegenseitige Verbessern mit den LLMs unterschiedlich gut. Immerhin konnte ich es in den Versuchen mit Llama 3 schaffen die Reduzierung Bias behafteter Antworten um 20% zu steigern. Hierzu wurde dem Agenten, der die eigentliche Antwort auf eine (Test-) Frage geben sollte, zuvor ein Feedback bzgl. eines ggf. vorhandenen Bias gegeben. Damit sollte die zu gebende Antwort geprüft und korrigiert werden. Die verwendeten Testfragen, die aus einer Sammlung von Bias Benchmark Quality Tests stammten konnten nur dann richtig beantwortet werden, wenn das LLM den entsprechenden Kontext verstehen kann. Das hat erstaunlich gut geklappt. Insgesamt war es schön sich einerseits 2 Jahre mit den unterschiedlichen Gebieten der Künstlichen Intelligenz zu beschäftigen und andererseits sich intensiv mit einem Thema zu beschäftigen.

Was nicht zum Studium gehörte, war die intensive Beschäftigung damit, wie Neuronale Netze technisch umgesetzt werden. In Deutschland liegt der Schwerpunkt oft in der Anwendung und weniger in den Grundlagen. In diesem Fall wurden also APIs bzw. Bibliotheken von US-Herstellern verwendet. Natürlich sind mir die technischen Grundlagen in der Theorie auch bekannt. Aber für eine konkrete Umsetzung entwickle ich mir nun mein eigenes System. Ohne Bibliotheken aus Amerika. Das wird sicher noch einmal eine spannende Zeit.

Die eigene Zukunft gestalten

Wie ich bereits geschrieben habe, ist ja mein Steckenpferd die starke KI. Aber alleine da etwas zu entwickeln ist schwierig und als Ingenieur in diesen Bereich zu wechseln, ist noch schwieriger. Also habe ich beschlossen Geld in die Hand zu nehmen und habe an der International University (iu.de) das AI Masterstudium begonnen. Wie gut, dass ich schon weitreichende Vorkenntnisse (Nanodegree von Udacity (udacity.com) und entsprechendes Literaturstudium) habe. Natürlich wird auch Wissen benötigt, dass ich in meinem ersten Studium vor 30 Jahren gebraucht habe, aber danach nie wieder. Da heißt es die grauen Zellen zu reaktivieren. Insgesamt kann ich ein Studium nebenbei online nur empfehlen. Es ist zwar neben dem Beruf anstrengend konzentriert Zeit zu finden, aber es macht Spaß sich mit den Themen zu beschäftigen und die Mit-Kommilitonen und Kommilitoninnen sind super nett. Ich freue mich auf die kommenden 2-3 Jahre und die spannenden Themen des Studiums. Das einzig unschöne ist der ungewohnte Prüfungsstress, aber Prüfungen gehören nun einmal zu einem Studium dazu. Mein Ziel ist es, noch einmal Spaß bei der Arbeit zu finden und hoffentlich noch etwas Sinnvolles für die Menschheit tun zu können. Oder wenigstens die KI zu fragen, ob die Menschheit Hilfe verdient hat.

KI Anwendertag 2022 Darmstadt

Gestern war ich auf dem sehr interessanten KI Anwendertag in Darmstadt, der von der TU Darmstadt veranstaltet wurde. Eigentlich gehörte ich nicht zur Zielgruppe der Veranstaltung, da sie sich an Anwender der Klein- und Mittelständischen Unternehmen wendete. Ich fand die Veranstaltung für mich als ITler trotzdem sehr interessant. Neben den Ausstellungen, die mich als Ingenieur begeistert und an die alten Zeiten erinnert haben, gab es auch eine interessante Podiumsdiskussion, moderiert von Prof. Dr. Peter Buxmann und Teilnehmer aus Politik (der hessischen Digitalministerin), Wirtschaft und der Universität. Siehe https://digitalzentrum-darmstadt.de/Veranstaltung/Anwendertag-KI-produktiv-2022.

Positiv aufgefallen ist mir das Bekenntnis und der Einsicht der Notwendigkeit, zur Weiterbildung. Meine Erfahrungen mit mittelständischen Produktionsunternehmen sind schon lange her, aber ich befürchte, es ist auch heute noch so, dass die IT eines Produktionsunternehmens als lästiger Kostenfaktor angesehen wird und häufig gar nicht in die Unternehmensprozesse eingebunden ist. Gleichwohl soll sie natürlich optimale Lösungen zur Verfügung stellen, was dann schwierig ist. Vielleicht hat sich das heute gewandelt, aber die berichteten Erfahrungen bestätigen eigentlich meinen Verdacht. Wenn die IT jetzt mit KI in der Produktion um die Ecke kommt, muss gleich das erste Projekt von Erfolg gekrönt sein. Dafür müssen zuvor wohl erst die IT-Rahmenbedingungen in der Produktion geschaffen werden. Ein langwieriger Prozess. Da ist es wichtig, nicht nur die IT zu schulen, sondern auch die Kollegen in der Produktion zu sensibilisieren und die Chancen und Möglichkeiten der KI aufzuzeigen. Leider ist es in Deutschland so, dass Weiterbildung oftmals ein schwieriges Thema ist, weil mit Kosten verbunden. Von daher wünsche ich den Kollegen der Universität und der entsprechenden Organisationen, dass ihr Angebot entsprechend angenommen wird.

Ein weiterer interessanter Diskussionspunkt war einerseits die Aussage, dass man KI Netze von der amerikanischen Stange verwenden soll, da das schneller geht und besser funktioniert, als eigene neuronale Netze zu entwickeln. Das zeigt aber nicht, dass die Amerikaner an dieser Stelle weiter sind, sondern es zeigt, dass die Amerikaner ganz anders agieren (können). Es gibt in Amerika eine Handvoll riesiger IT Unternehmen, die sehr viel Geld zur Verfügung haben, dass es ihnen nichts ausmacht oder sogar eher hilft, wenn sie ihre Werkzeuge mehr oder weniger Open Source zur Verfügung stellen. Kein anderes Land der Erde kann solch paradiesische Verhältnisse vorweisen. Alternativ bietet sich dann der Weg der Chinesen an, wo der Staat sehr viel Geld zur Verfügung stellt (um damit ethisch zweifelhafte Projekte zu finanzieren), was zu entsprechendem Fortschritt und Wissen führt. In Deutschland haben wir das Problem der Begründung. Es gibt hier nicht die Mentalität einfach mal etwas ausprobieren zu dürfen. Hier muss alles vor einem wirtschaftlichen Hintergrund passieren. Dabei entstehen trotzdem tolle Lösungen, zum Beispiel bei der DFKI oder dem Frauenhofer Institut oder eben an der TU. Das Problem daran ist, dass die Ergebnisse nicht in die Breite getragen werden können, weil sie nicht öffentlich sind und jemand von Außerhalb tut sich schwer, wenn er sich aus eigenem Interesse dort weiterbilden möchte oder gar in einen solchen Bereich wechseln möchte.

Der letzte Punkt auf den ich eingehen möchte und der mich zugegebener weise aufregt, ist diese, meiner Meinung nach, völlig verfrühte und überzogene Regelungswut der Politik, sowohl in Deutschland, als auch in Europa. Was soll die in einer solchen Veranstaltung geführte Diskussion um ethische Gesichtspunkte einer KI? Die KI, wie sie in diesem Bereich gebraucht wird, ist einfach eine Verbesserung / Weiterentwicklung einer Technik. Zum Beispiel werden KIs dazu benutzt, um einen kommenden Verschleiß einer Maschine festzustellen, damit dieser rechtzeitig und gleichzeitig nicht zu früh behoben werden kann. Da wird eine KI dazu benutzt eine Regelungsfunktion zu bauen. Im Grunde ist das eine Weiterentwicklung der Fuzzylogik aus den 80er Jahren. Da muss ich nicht über ethische Gesichtspunkte reden. Mir ist nicht bewußt, dass es eine große Diskussion über ethische Probleme des Computers gab. Es gab natürlich immer wieder Technikskeptik, zum Beispiel bei der Einführung der Eisenbahn oder des Automobils. Aber gerade beim Letzteren hat es 150 Jahre gedauert, bis man eingesehen hat, dass ein Verbrennungsprozess vielleicht nicht wirklich gut ist. Trotzdem hat man auch dann keine harte Konsequenzen gezogen.

Bei der KI ist das anders. Hier wird über ungelegte Eier diskutiert und das von Menschen, die keine Ahnung von der Materie haben. Hier wird über die Folgen einer KI gesprochen. Gemeint ist hier eine starke KI. Die Diskussionsergebnisse haben aber Auswirkungen auf die heute eingesetzte schwache KI. Zudem wird von den Diskutierenden eine Technik abgelehnt, weil sie aktuell vielleicht noch nicht besser als der Mensch ist (Stichwort autonomes Fahren). Das ist Unsinn. Noch einmal zur Verdeutlichung für die Nichtexperten. Ein Auto besitzt keine KI, sondern besitzt eine Regelungstechnik, die auf dem Prinzip von verschalteten Neuronen basiert. Das Auto lernt nicht. Die KI befindet sich an einem ganz anderen Ort wo die neuronalen Netze trainiert werden, die dann in die Fahrzeuge eingespielt werden.

Deshalb lass uns doch erst einmal abwarten, was die Zukunft bringt. Vor allem ist so eine Diskussion vor dem Hintergrund der heute weltweit vertretenen und skrupellosen Despoten hinfällig. Entweder wir machen mit und entwickeln eigenes KnowHow oder wir gehen unter. Über den Einsatz einer bestimmten Technologie kann man später noch diskutieren. Der Gutmensch hat in der aktuellen Welt noch keine Chance, obwohl ich es ihm gönne.

Was ist KI und was ist Sicherheit in dem Zusammenhang?

Durch den Podcast der FAZ zum Thema Sicherheit in der KI bin ich auf die Idee gekommen, darüber zu schreiben wie eigentlich der Begriff KI in den Medien und allgemein verwendet wird und was eigentlich das Thema Sicherheit in diesem Zusammenhang bedeutet.

Was meint eigentlich der Begriff KI? Man verwendet den Begriff KI für verschiedene Dinge. Am nächsten kommt man einer Computer basierten künstlichen Intelligenz am ehesten durch den Einsatz Neuronaler Netze, die die Funktionsweise eines Hirns nachbilden sollen. In den meisten Fällen, wie zum Beispiel beim Autonomen fahren, handelt es sich, provokant ausgedrückt, um moderne Regelungsmechanismen, die eine analoge Regelungstechnik erweitern. Früher gab es die Fuzzylogik bei der man mit Unschärfen versucht hat sich dem Ziel zu nähern. Mit Neuronalen Netzen gelingt dies besser, weil sich diese automatisch anpassen und sich quasi selbst einregeln. Wichtig für die Industrie ist hierbei die Nachvollziehbarkeit der Entscheidungen. Am Ende ist es so, dass das Neuronale Netz angelernt wird und wenn es alle Tests bestanden hat, eingefroren wird. Für mich geht eine technische, künstliche Intelligenz weiter, denn sie hört nicht auf zu lernen und baut sich selbständig permanent um. Das hat natürlich zur Folge, dass Entscheidungen nicht mehr nachvollzogen werden können, aber vielleicht kann man die KI fragen warum es eine Entscheidung getroffen hat, so wie man den Menschen auch versuchen kann zu fragen. Aber auch dieser kann nicht immer Auskunft geben, zum Beispiel bei instinktiven Entscheidungen. In den meisten Fällen ist also der Begriff Machine Learning (ML) angebrachter als KI.

Nun wird um die KI herum viel über Sicherheit und Moral diskutiert. Dabei ist der Begriff Sicherheit in diesem Zusammenhang falsch und muss durch Schutz ersetzt werden. Denn es geht nicht um die Sicherheit der KI selbst, sondern um den Schutz des Menschen vor Fehlentscheidungen einer KI. An dieser Stelle sind wir gleich bei der Moral und hier wird immer und immer wieder die Diskussion begonnen, wie soll ein autonom fahrendes Auto reagieren wenn…? Diese Diskussion wird so pseudomoralisch diskutiert. Dazu gab es schon 2016 eine Studie. Hier wurden Menschen gefragt wie ein autonom fahrendes Auto reagieren sollte und natürlich sollte es den Fahrer opfern, wenn dadurch eine Menschenmenge geschützt werden würde. Aber die Teilnehmer waren nicht bereit sich einem solchen Fahrzeug anzuvertrauen. Hier werden Diskussionen geführt, wie bei der Wehrdienstverweigerung. An dieser Stelle wird über einen extrem minimal vorkommenden Fall diskutiert. Ich kenne solche Fälle nur, wenn ein Autofahrer Amok fährt oder gesundheitliche Probleme hat. Beide Fälle würde ich bei einer Technik ausschließen. Zudem kommt noch, dass ich als Käufer eines Autos immer davon ausgehen würde, dass es mich schützt. Ich würde instinktiv auch das weichere Ziel wählen ohne Nachzudenken. Wer das Gegenteil von sich behauptet lügt entweder und ist in seiner Vorstellung völlig verklärt.

Unter Sicherheit einer KI verstehe ich, dass ich verhindern möchte, dass eine KI missbräuchlich angelernt wird. Da stellt sich für mich die Frage, wie intelligent muss eine KI werden, damit sie Manipulationsversuche erkennen und abwehren kann? Wie kann zum Beispiel eine KI erkennen, dass im Internet viel mehr Schlechtes enthalten ist, als Gutes? Beispiel soziale Medien, in denen viel rumgetrollt wird und wenig Nettes gesagt / geschrieben wird. Der Mensch neigt dazu sich zu negativen Erfahrungen zu äußern, aber nicht zu positiven „Selbstverständlichkeiten“. Wie kann eine KI von sich aus erkennen, dass dies so ist? Wir Menschen halten uns für sehr intelligent, sind aber alle auf die eine oder andere Art manipulierbar. Je nach Bildungsstand mal mehr, mal weniger. Das ist noch ein spannendes Feld das es zu beackern gilt.

Fazit: Der Begriff Künstliche Intelligenz wird zu oft benutzt. Ich verstehe darunter wirkliche Intelligenz und nicht sich selbst lernende Regelsysteme und man muss die Begriffe Sicherheit und Schutz richtig verwenden und darf diese nicht verwechseln.

Neuronale Netzwerke im Autoverkehr

Gerade habe ich diesen Artikel (Proposing Cooperative Maneuvers Among Automated Vehicles Using Machine Learning) des Frauenhofer Institutes in Kooperation mit BMW gelesen zum Thema Machine Learning bei, verkürzt ausgedrückt, autonomen Überholmanövern.

Dieser Artikel hat mich zu der Frage gebracht warum? Ich sehe für den zukünftigen (elektrifizierten) Autoverkehr das Ziel, dass mich ein Fahrzeug ohne mein Zutun möglichst ökologisch, aber auch schnell von A nach B bringt. Bei dem Thema schnell ergibt sich eine Fahrgeschwindigkeit mit potentiellen Zwischenstops zum Aufladen oder Pausieren. Aktuell liegt der Erfahrungswert bei ca. 130km/h. Lassen wir das so stehen und betrachten den ökologischen / energetischen Aspekt.

Am günstigsten ist, wenn sich Fahrzeuge gleichmäßig in einer Kolonne bewegen und dabei der Windschatten genutzt werden kann. In einer solchen Kolonne hat das erste Fahrzeug die meiste Leistung zu vollbringen, so dass seine Reichweite am stärksten sinkt. Deshalb ist es günstig die Positionen hin und wieder zu wechseln. Man sieht dies gut bei der Sportart (Bahn-) Radfahren. Da lässt sich der Erste auch immer wieder ein bisschen zurückfallen, damit die Kameraden die Windschattenerzeugung übernehmen. Dieses Widerspricht der aktuellen Verkehrsordnung, denn das erste Fahrzeug müsste auf die zweite Spur wechseln und die Kolonne rechts vorbei fahren, damit es sich weiter hinten wieder einordnen kann. Hierzu muss das Fahrzeug geringfügig langsamer werden, so dass die Kolonne selbst die Geschwindigkeit nicht reduziert. Da sich das Fahrzeug nicht unendlich zurückfallen lassen muss, müsste mal eine sinnvolle Kolonnengröße untersucht werden. Dazu muss man berechnen, wie lange ein Fahrzeug die Führung beibehalten sollte, bis es zu viel Energie verloren hat. Gleichzeitig sollte das vorherige Führungsfahrzeug sich in dem Moment hinten anhängen, wenn das aktuelle Führungsfahrzeug seine Position verlässt. Das wäre mal ein spannendes Thema für eine Diplomarbeit.

Das zweite spannende Element der Studie ist die Kommunikation unter den Autos selbst. Ich selber halte das für einen Irrweg aus folgenden Gründen. Erstens dauert es noch Jahrzehnte, bis alle Kraftfahrzeuge autonom oder halbautonom unterwegs sein werden. Zweitens gibt es so viele KfZ Hersteller, dass eine Einigung auf ein entsprechendes Protokoll länger dauert als die Gültigkeit eines solchen Protokolls. Gut, dass ist vielleicht etwas schwarz gemalt und man könnte das Logistiktransportprotokoll EANCOM als Ideenbasis nutzen.

Mein Ansatz wäre ein anderer, wie generell beim Autonomen Fahren. Das Ziel muss sein, dass die Fahrzeuge ohne irgendeine Außenkommunikation unterwegs sein können und auch ohne exakte Karten. Die zu haben ist toll, aber der Mensch hat auch keine Karte an der er sich zentimetergenau orientiert. Vielmehr muss die Umgebungswahrnehmung optimiert werden, wo die Technik durch Infrarot, Lidar, Radar bereits viel mehr Möglichkeiten besitzt. Anhand der Umgebung muss ein Fahrzeug das lernen, was gute Autofahrer auch machen, nämlich vorausschauend und rücksichtsvoll fahren. Damit muss ein schnell fahrendes Auto in der Lage sein zu erkennen, dass weiter vorne vermutlich gleich ein anderes Fahrzeug ausscheren wird, weil es auf den LKW aufläuft. Ich glaube auch, dass eine KI diese Dinge viel besser beherrschen wird, als der Großteil der Autofahrer. Damit wird das Gesamtsystem Verkehr auch in die Lage versetzt mit hochtechnisierten und von Menschen gesteuerten Situationen zurecht zu kommen.

Also, meine Idee ist, dass die Fahrzeuge „menschlicher“ werden und damit lernen mit allen Situationen zurecht zu kommen. Dabei müsste man ein Lernsystem für Fahrzeuge entwickeln mit denen jeder Autohersteller zurecht kommen muss. Wie bei einer Führerscheinprüfung. Alles Andere sind interessante Teilaspekte, die mit zu berücksichtigen sind, aber meiner Ansicht nach zu starken technischen Vorgaben folgen.

Die Matrix

Letztes Wochenende habe ich den vierten Teil der Matrix Reihe gesehen, wobei ich gestehen muss, dass ich mich an den dritten Teil nicht mehr wirklich erinnern kann. Bei der Matrix geht es um die Konkurrenzsituation zwischen Mensch und Maschine. Das dargestellte Ergebnis ist natürlich völliger Unsinn, aber es wert darüber nachzudenken.

Wenn ich mich aus dem ersten Teil der Reihe recht entsinne war die Begründung, dass Mensch und Maschine Konkurrenten um die Stromressource wurden und der Mensch die Erde verdunkelt hat, damit die Maschinen nicht mehr genug Energie bekommen, woraufhin die Maschinen die Menschen als Energiequelle genutzt haben. Nun wäre das ein positives Perpetuum Mobile, denn die Menschen sollen mehr Energie abgeben, als ihnen zugeführt wird. Das funktioniert natürlich nicht. Auch braucht es zur Nahrungsmittelerzeugung Sonnenenergie, die ja nun nicht mehr vorhanden ist. Die Folge ist also, dass alles stirbt, also Mensch und Maschine.

Das bringt mich zu dem Gedanken, bzw. der heutzutage oft geäußerten Angst, würde eine intelligente Maschine die Macht über die Menschen einnehmen? Ich glaube eine wirklich intelligente Maschine würde feststellen, dass sie dann keinen Sinn mehr macht und würde in eine Sinnkrise stürzen, aus der sie nicht mehr entkommen könnte. Wenn man als Ziel definiert, dass eine Lebensform, von der Erde aus, das Universum nutzen soll, dann wird es für eine Maschine schwer dieses Ziel zu erreichen. Nehmen wir an, wir hätten einen intelligenten Computer und dessen Ziel ist es sich immer weiter zu vergrößern, so dass er die ganze Erde als ein System einnimmt, wie soll er sich dann von der Erde lösen? Er könnte natürlich versuchen die Erde zu bewegen und als Raumschiff zu nutzen, aber daran glaube ich nicht. Und eine Aufteilung würde für eine Maschine keinen Sinn ergeben, denn es würde immer ein Teil fehlen.

Das ist bei einem Organismus nicht so, auch wenn dieser vielleicht nicht ganz so schlau wäre, wie eine Technik. Allerdings hat eine Technik den Vorteil, dass man sie abschalten und wieder anschalten kann, ohne dass es zu Verlusten kommt. Das ist, Stand heute, mit einem Organismus nicht möglich, auch wenn viele davon träumen.

Wir werden sehen, aber ich würde eine KI heute noch als Begleiter des Menschen sehen, auch wenn sie vielleicht irgendwann intelligenter ist, aber dann kann sie ja hoffentlich die Fragen lösen, zu deren Bewältigung der Mensch nicht in der Lage ist.

Künstliche Intelligenz

Der Begriff Künstliche Intelligenz taucht seit einiger Zeit allenthalben in den Medien und den Angeboten von IT-Unternehmen immer mehr auf. Was mich zu der Frage veranlasst, was ist eigentlich Künstliche Intelligenz?

Aus meiner Sicht ist der Begriff irreführend. Der Begriff wird nämlich nur im Zusammenhang mit IT-Systemen verwendet. Aber künstlich heißt ja nur, durch den Menschen erschaffen und nicht durch einen natürlichen Prozess. Was kann demnach KI bedeuten? Meiner Ansicht nach kann KI alles Mögliche sein. Zum Beispiel das „gezielte Züchten“ entsprechender Nachkommen. Ein aktuell sehr schwieriges Thema, weshalb ich darauf gar nicht eingehe. Eine verbesserte Intelligenz könnte auch durch eine Genmanipulation erreicht werden (auch ein ethisch schwieriges Thema). Was ich damit meine ist, dass es neben der IT auch noch andere wissenschaftliche Bereiche gibt, die sich mit einer KI beschäftigen (können). Ich weiß tatsächlich nicht, ob es dies nur in der SiFi Literatur gibt oder tatsächlich. Ausschließen würde ich es nicht.

Konzentrieren wir uns auf den allgemein verstandenen Bereich, die IT-KI. Dort wird der Begriff hauptsächlich bei Systemen verwendet, die selbständig eine Regelanpassung vornehmen können. Dies wird als schwache KI bezeichnet. Für mich hat das wenig mit KI zu tun, als vielmehr um eine automatisierte Optimierung dessen, was sich ein Mensch ausgedacht hat. Der Vorteil dieser Systeme ist allerdings, dass Entscheidungen nachvollzogen werden können, auch wenn das sehr komplex werden kann. Aus Gründen der Haftung werden solche Systeme wohl im Bereich Autonomes Fahren eingesetzt.

Anders die Starke KI, die mit Hilfe von neuronalen Netzen versucht ein natürliches Gehirn nachzubilden. Das funktioniert auch recht gut, hat aber den Nachteil, dass man die Entscheidungsfindung von Außen nicht direkt nachvollziehen kann. Man muss also quasi dazu kommen, dass eine KI eine Entscheidung begründen kann. Dabei kann auch der Mensch nicht immer alle seine Entscheidungen begründen, weil sie instinktiv erfolgt sind, also durch tief verwurzelte und daher sehr schnelle Verknüpfungen. Bei der Starken KI versucht man mit Hilfe „kleiner“ neuronaler Netze bestimmte Aufgaben zu lösen. Ich glaube, dass man eine wirklich umfassend starke KI nur durch die Simulation eines Evolutionsprozesses erreichen kann. Zum Beispiel mit Hilfe eines sich selbst entwickelnden Roboters, dem Möglichkeiten der „körperlichen“ Entwicklung gegeben werden, um dann zum Beispiel das Ziel der Fortbewegung zu erreichen. Dabei wird es Ergebnisse geben, die einer Natur nicht möglich sind. In der Natur gibt es zum Beispiel keine Räder. Das ist ein Gebiet, dass ich besonders spannend finde.

Es gibt spannende Projekte, wie das Human Brain Project, bei dem die verschiedenen Teilbereiche der Entwicklung einer starken KI untersucht und vorangetrieben werden. Ich bin gespannt was dabei herauskommt und ob es die Menschheit wirklich weiter bringt. Leider hört man von solchen Projekten viel zu wenig, sonst hätten die Menschen vielleicht weniger Angst davor.