Durch den Podcast der FAZ zum Thema Sicherheit in der KI bin ich auf die Idee gekommen, darüber zu schreiben wie eigentlich der Begriff KI in den Medien und allgemein verwendet wird und was eigentlich das Thema Sicherheit in diesem Zusammenhang bedeutet.
Was meint eigentlich der Begriff KI? Man verwendet den Begriff KI für verschiedene Dinge. Am nächsten kommt man einer Computer basierten künstlichen Intelligenz am ehesten durch den Einsatz Neuronaler Netze, die die Funktionsweise eines Hirns nachbilden sollen. In den meisten Fällen, wie zum Beispiel beim Autonomen fahren, handelt es sich, provokant ausgedrückt, um moderne Regelungsmechanismen, die eine analoge Regelungstechnik erweitern. Früher gab es die Fuzzylogik bei der man mit Unschärfen versucht hat sich dem Ziel zu nähern. Mit Neuronalen Netzen gelingt dies besser, weil sich diese automatisch anpassen und sich quasi selbst einregeln. Wichtig für die Industrie ist hierbei die Nachvollziehbarkeit der Entscheidungen. Am Ende ist es so, dass das Neuronale Netz angelernt wird und wenn es alle Tests bestanden hat, eingefroren wird. Für mich geht eine technische, künstliche Intelligenz weiter, denn sie hört nicht auf zu lernen und baut sich selbständig permanent um. Das hat natürlich zur Folge, dass Entscheidungen nicht mehr nachvollzogen werden können, aber vielleicht kann man die KI fragen warum es eine Entscheidung getroffen hat, so wie man den Menschen auch versuchen kann zu fragen. Aber auch dieser kann nicht immer Auskunft geben, zum Beispiel bei instinktiven Entscheidungen. In den meisten Fällen ist also der Begriff Machine Learning (ML) angebrachter als KI.
Nun wird um die KI herum viel über Sicherheit und Moral diskutiert. Dabei ist der Begriff Sicherheit in diesem Zusammenhang falsch und muss durch Schutz ersetzt werden. Denn es geht nicht um die Sicherheit der KI selbst, sondern um den Schutz des Menschen vor Fehlentscheidungen einer KI. An dieser Stelle sind wir gleich bei der Moral und hier wird immer und immer wieder die Diskussion begonnen, wie soll ein autonom fahrendes Auto reagieren wenn…? Diese Diskussion wird so pseudomoralisch diskutiert. Dazu gab es schon 2016 eine Studie. Hier wurden Menschen gefragt wie ein autonom fahrendes Auto reagieren sollte und natürlich sollte es den Fahrer opfern, wenn dadurch eine Menschenmenge geschützt werden würde. Aber die Teilnehmer waren nicht bereit sich einem solchen Fahrzeug anzuvertrauen. Hier werden Diskussionen geführt, wie bei der Wehrdienstverweigerung. An dieser Stelle wird über einen extrem minimal vorkommenden Fall diskutiert. Ich kenne solche Fälle nur, wenn ein Autofahrer Amok fährt oder gesundheitliche Probleme hat. Beide Fälle würde ich bei einer Technik ausschließen. Zudem kommt noch, dass ich als Käufer eines Autos immer davon ausgehen würde, dass es mich schützt. Ich würde instinktiv auch das weichere Ziel wählen ohne Nachzudenken. Wer das Gegenteil von sich behauptet lügt entweder und ist in seiner Vorstellung völlig verklärt.
Unter Sicherheit einer KI verstehe ich, dass ich verhindern möchte, dass eine KI missbräuchlich angelernt wird. Da stellt sich für mich die Frage, wie intelligent muss eine KI werden, damit sie Manipulationsversuche erkennen und abwehren kann? Wie kann zum Beispiel eine KI erkennen, dass im Internet viel mehr Schlechtes enthalten ist, als Gutes? Beispiel soziale Medien, in denen viel rumgetrollt wird und wenig Nettes gesagt / geschrieben wird. Der Mensch neigt dazu sich zu negativen Erfahrungen zu äußern, aber nicht zu positiven “Selbstverständlichkeiten”. Wie kann eine KI von sich aus erkennen, dass dies so ist? Wir Menschen halten uns für sehr intelligent, sind aber alle auf die eine oder andere Art manipulierbar. Je nach Bildungsstand mal mehr, mal weniger. Das ist noch ein spannendes Feld das es zu beackern gilt.
Fazit: Der Begriff Künstliche Intelligenz wird zu oft benutzt. Ich verstehe darunter wirkliche Intelligenz und nicht sich selbst lernende Regelsysteme und man muss die Begriffe Sicherheit und Schutz richtig verwenden und darf diese nicht verwechseln.