Ich

Ich bin Ingenieur der Feinwerktechnik (heute heißt das Mechatronik, also Ausbildung zum technischen Universalgenie) und arbeite seit fast 30 Jahren in der Softwareentwicklung. Teile (der tronik Teil) der Ausbildung beschäftigten sich mit Regelungstechnik, Elektronik und Softwareentwicklung. Zu der damaligen Zeit war das Stichwort Fuzzy, also Unschärfe in der Regelungstechnik ganz groß und es gab die sogenannten Transputer, also massiv parallel arbeitende Computer, deren Kerne entsprechend miteinander kommunizieren. Auch wenn die Idee des neuronalen Netzes bereits aus dem vorletzten Jahrhundert stammt, waren die Computer in den 80er Jahren des letzten Jahrhunderts aber noch nicht so weit, um diese sinnvoll simulieren zu können, aber ich fand die Themen damals schon spannend und, auch wenn mich mein Berufsleben davon entfernt hat, habe ich das immer im Hinterkopf gehabt. Zudem schwirrt mir bis heute eine Aussage meines Elektronikprofs im Kopf herum, dass es auch analoge Computer gibt und neuronale Netze basieren im Grunde auf einer Mischung analoger und digitaler Vorgänge.

Inzwischen würde ich gerne daran arbeiten eine KI zu erschaffen, die durch ihre übermenschliche Intelligenz es schafft für die Menschen Probleme zu lösen, zum Beispiel in der Bekämpfung einer Pandemie oder Lösungen gegen den Klimawandel zu finden. Da spielen für mich auch philosophische Aspekte eine große Rolle, die ich in diesem Blog darstellen werde, also meine Gedanken zu meinem Interesse bzgl. der Universumsevolution. In meiner Freizeit versuche ich auch an Softwarekomponenten in diesem Komplex zu arbeiten, auch wenn mir dazu kaum Zeit bleibt.

Zu meinem Slogan: Ich bin der Meinung, dass wir in den letzten Jahrzehnten genug an uns selber gedacht haben. Nun ist es Zeit, dass wir auch an die nähere und weitere Zukunft denken, um unseren Nachkommen eine lebenswerte Welt zu hinterlassen und die spannenden Themen, was eigentlich nach der Befriedigung unserer Bedürfnisse zu tun ist, um die Menschheit und nicht nur den Menschen voran zu bringen.

KI Anwendertag 2022 Darmstadt

Gestern war ich auf dem sehr interessanten KI Anwendertag in Darmstadt, der von der TU Darmstadt veranstaltet wurde. Eigentlich gehörte ich nicht zur Zielgruppe der Veranstaltung, da sie sich an Anwender der Klein- und Mittelständischen Unternehmen wendete. Ich fand die Veranstaltung für mich als ITler trotzdem sehr interessant. Neben den Ausstellungen, die mich als Ingenieur begeistert und an die alten Zeiten erinnert haben, gab es auch eine interessante Podiumsdiskussion, moderiert von Prof. Dr. Peter Buxmann und Teilnehmer aus Politik (der hessischen Digitalministerin), Wirtschaft und der Universität. Siehe https://digitalzentrum-darmstadt.de/Veranstaltung/Anwendertag-KI-produktiv-2022.

Positiv aufgefallen ist mir das Bekenntnis und der Einsicht der Notwendigkeit, zur Weiterbildung. Meine Erfahrungen mit mittelständischen Produktionsunternehmen sind schon lange her, aber ich befürchte, es ist auch heute noch so, dass die IT eines Produktionsunternehmens als lästiger Kostenfaktor angesehen wird und häufig gar nicht in die Unternehmensprozesse eingebunden ist. Gleichwohl soll sie natürlich optimale Lösungen zur Verfügung stellen, was dann schwierig ist. Vielleicht hat sich das heute gewandelt, aber die berichteten Erfahrungen bestätigen eigentlich meinen Verdacht. Wenn die IT jetzt mit KI in der Produktion um die Ecke kommt, muss gleich das erste Projekt von Erfolg gekrönt sein. Dafür müssen zuvor wohl erst die IT-Rahmenbedingungen in der Produktion geschaffen werden. Ein langwieriger Prozess. Da ist es wichtig, nicht nur die IT zu schulen, sondern auch die Kollegen in der Produktion zu sensibilisieren und die Chancen und Möglichkeiten der KI aufzuzeigen. Leider ist es in Deutschland so, dass Weiterbildung oftmals ein schwieriges Thema ist, weil mit Kosten verbunden. Von daher wünsche ich den Kollegen der Universität und der entsprechenden Organisationen, dass ihr Angebot entsprechend angenommen wird.

Ein weiterer interessanter Diskussionspunkt war einerseits die Aussage, dass man KI Netze von der amerikanischen Stange verwenden soll, da das schneller geht und besser funktioniert, als eigene neuronale Netze zu entwickeln. Das zeigt aber nicht, dass die Amerikaner an dieser Stelle weiter sind, sondern es zeigt, dass die Amerikaner ganz anders agieren (können). Es gibt in Amerika eine Handvoll riesiger IT Unternehmen, die sehr viel Geld zur Verfügung haben, dass es ihnen nichts ausmacht oder sogar eher hilft, wenn sie ihre Werkzeuge mehr oder weniger Open Source zur Verfügung stellen. Kein anderes Land der Erde kann solch paradiesische Verhältnisse vorweisen. Alternativ bietet sich dann der Weg der Chinesen an, wo der Staat sehr viel Geld zur Verfügung stellt (um damit ethisch zweifelhafte Projekte zu finanzieren), was zu entsprechendem Fortschritt und Wissen führt. In Deutschland haben wir das Problem der Begründung. Es gibt hier nicht die Mentalität einfach mal etwas ausprobieren zu dürfen. Hier muss alles vor einem wirtschaftlichen Hintergrund passieren. Dabei entstehen trotzdem tolle Lösungen, zum Beispiel bei der DFKI oder dem Frauenhofer Institut oder eben an der TU. Das Problem daran ist, dass die Ergebnisse nicht in die Breite getragen werden können, weil sie nicht öffentlich sind und jemand von Außerhalb tut sich schwer, wenn er sich aus eigenem Interesse dort weiterbilden möchte oder gar in einen solchen Bereich wechseln möchte.

Der letzte Punkt auf den ich eingehen möchte und der mich zugegebener weise aufregt, ist diese, meiner Meinung nach, völlig verfrühte und überzogene Regelungswut der Politik, sowohl in Deutschland, als auch in Europa. Was soll die in einer solchen Veranstaltung geführte Diskussion um ethische Gesichtspunkte einer KI? Die KI, wie sie in diesem Bereich gebraucht wird, ist einfach eine Verbesserung / Weiterentwicklung einer Technik. Zum Beispiel werden KIs dazu benutzt, um einen kommenden Verschleiß einer Maschine festzustellen, damit dieser rechtzeitig und gleichzeitig nicht zu früh behoben werden kann. Da wird eine KI dazu benutzt eine Regelungsfunktion zu bauen. Im Grunde ist das eine Weiterentwicklung der Fuzzylogik aus den 80er Jahren. Da muss ich nicht über ethische Gesichtspunkte reden. Mir ist nicht bewußt, dass es eine große Diskussion über ethische Probleme des Computers gab. Es gab natürlich immer wieder Technikskeptik, zum Beispiel bei der Einführung der Eisenbahn oder des Automobils. Aber gerade beim Letzteren hat es 150 Jahre gedauert, bis man eingesehen hat, dass ein Verbrennungsprozess vielleicht nicht wirklich gut ist. Trotzdem hat man auch dann keine harte Konsequenzen gezogen.

Bei der KI ist das anders. Hier wird über ungelegte Eier diskutiert und das von Menschen, die keine Ahnung von der Materie haben. Hier wird über die Folgen einer KI gesprochen. Gemeint ist hier eine starke KI. Die Diskussionsergebnisse haben aber Auswirkungen auf die heute eingesetzte schwache KI. Zudem wird von den Diskutierenden eine Technik abgelehnt, weil sie aktuell vielleicht noch nicht besser als der Mensch ist (Stichwort autonomes Fahren). Das ist Unsinn. Noch einmal zur Verdeutlichung für die Nichtexperten. Ein Auto besitzt keine KI, sondern besitzt eine Regelungstechnik, die auf dem Prinzip von verschalteten Neuronen basiert. Das Auto lernt nicht. Die KI befindet sich an einem ganz anderen Ort wo die neuronalen Netze trainiert werden, die dann in die Fahrzeuge eingespielt werden.

Deshalb lass uns doch erst einmal abwarten, was die Zukunft bringt. Vor allem ist so eine Diskussion vor dem Hintergrund der heute weltweit vertretenen und skrupellosen Despoten hinfällig. Entweder wir machen mit und entwickeln eigenes KnowHow oder wir gehen unter. Über den Einsatz einer bestimmten Technologie kann man später noch diskutieren. Der Gutmensch hat in der aktuellen Welt noch keine Chance, obwohl ich es ihm gönne.

Was ist KI und was ist Sicherheit in dem Zusammenhang?

Durch den Podcast der FAZ zum Thema Sicherheit in der KI bin ich auf die Idee gekommen, darüber zu schreiben wie eigentlich der Begriff KI in den Medien und allgemein verwendet wird und was eigentlich das Thema Sicherheit in diesem Zusammenhang bedeutet.

Was meint eigentlich der Begriff KI? Man verwendet den Begriff KI für verschiedene Dinge. Am nächsten kommt man einer Computer basierten künstlichen Intelligenz am ehesten durch den Einsatz Neuronaler Netze, die die Funktionsweise eines Hirns nachbilden sollen. In den meisten Fällen, wie zum Beispiel beim Autonomen fahren, handelt es sich, provokant ausgedrückt, um moderne Regelungsmechanismen, die eine analoge Regelungstechnik erweitern. Früher gab es die Fuzzylogik bei der man mit Unschärfen versucht hat sich dem Ziel zu nähern. Mit Neuronalen Netzen gelingt dies besser, weil sich diese automatisch anpassen und sich quasi selbst einregeln. Wichtig für die Industrie ist hierbei die Nachvollziehbarkeit der Entscheidungen. Am Ende ist es so, dass das Neuronale Netz angelernt wird und wenn es alle Tests bestanden hat, eingefroren wird. Für mich geht eine technische, künstliche Intelligenz weiter, denn sie hört nicht auf zu lernen und baut sich selbständig permanent um. Das hat natürlich zur Folge, dass Entscheidungen nicht mehr nachvollzogen werden können, aber vielleicht kann man die KI fragen warum es eine Entscheidung getroffen hat, so wie man den Menschen auch versuchen kann zu fragen. Aber auch dieser kann nicht immer Auskunft geben, zum Beispiel bei instinktiven Entscheidungen. In den meisten Fällen ist also der Begriff Machine Learning (ML) angebrachter als KI.

Nun wird um die KI herum viel über Sicherheit und Moral diskutiert. Dabei ist der Begriff Sicherheit in diesem Zusammenhang falsch und muss durch Schutz ersetzt werden. Denn es geht nicht um die Sicherheit der KI selbst, sondern um den Schutz des Menschen vor Fehlentscheidungen einer KI. An dieser Stelle sind wir gleich bei der Moral und hier wird immer und immer wieder die Diskussion begonnen, wie soll ein autonom fahrendes Auto reagieren wenn…? Diese Diskussion wird so pseudomoralisch diskutiert. Dazu gab es schon 2016 eine Studie. Hier wurden Menschen gefragt wie ein autonom fahrendes Auto reagieren sollte und natürlich sollte es den Fahrer opfern, wenn dadurch eine Menschenmenge geschützt werden würde. Aber die Teilnehmer waren nicht bereit sich einem solchen Fahrzeug anzuvertrauen. Hier werden Diskussionen geführt, wie bei der Wehrdienstverweigerung. An dieser Stelle wird über einen extrem minimal vorkommenden Fall diskutiert. Ich kenne solche Fälle nur, wenn ein Autofahrer Amok fährt oder gesundheitliche Probleme hat. Beide Fälle würde ich bei einer Technik ausschließen. Zudem kommt noch, dass ich als Käufer eines Autos immer davon ausgehen würde, dass es mich schützt. Ich würde instinktiv auch das weichere Ziel wählen ohne Nachzudenken. Wer das Gegenteil von sich behauptet lügt entweder und ist in seiner Vorstellung völlig verklärt.

Unter Sicherheit einer KI verstehe ich, dass ich verhindern möchte, dass eine KI missbräuchlich angelernt wird. Da stellt sich für mich die Frage, wie intelligent muss eine KI werden, damit sie Manipulationsversuche erkennen und abwehren kann? Wie kann zum Beispiel eine KI erkennen, dass im Internet viel mehr Schlechtes enthalten ist, als Gutes? Beispiel soziale Medien, in denen viel rumgetrollt wird und wenig Nettes gesagt / geschrieben wird. Der Mensch neigt dazu sich zu negativen Erfahrungen zu äußern, aber nicht zu positiven „Selbstverständlichkeiten“. Wie kann eine KI von sich aus erkennen, dass dies so ist? Wir Menschen halten uns für sehr intelligent, sind aber alle auf die eine oder andere Art manipulierbar. Je nach Bildungsstand mal mehr, mal weniger. Das ist noch ein spannendes Feld das es zu beackern gilt.

Fazit: Der Begriff Künstliche Intelligenz wird zu oft benutzt. Ich verstehe darunter wirkliche Intelligenz und nicht sich selbst lernende Regelsysteme und man muss die Begriffe Sicherheit und Schutz richtig verwenden und darf diese nicht verwechseln.

Neuronale Netzwerke im Autoverkehr

Gerade habe ich diesen Artikel (Proposing Cooperative Maneuvers Among Automated Vehicles Using Machine Learning) des Frauenhofer Institutes in Kooperation mit BMW gelesen zum Thema Machine Learning bei, verkürzt ausgedrückt, autonomen Überholmanövern.

Dieser Artikel hat mich zu der Frage gebracht warum? Ich sehe für den zukünftigen (elektrifizierten) Autoverkehr das Ziel, dass mich ein Fahrzeug ohne mein Zutun möglichst ökologisch, aber auch schnell von A nach B bringt. Bei dem Thema schnell ergibt sich eine Fahrgeschwindigkeit mit potentiellen Zwischenstops zum Aufladen oder Pausieren. Aktuell liegt der Erfahrungswert bei ca. 130km/h. Lassen wir das so stehen und betrachten den ökologischen / energetischen Aspekt.

Am günstigsten ist, wenn sich Fahrzeuge gleichmäßig in einer Kolonne bewegen und dabei der Windschatten genutzt werden kann. In einer solchen Kolonne hat das erste Fahrzeug die meiste Leistung zu vollbringen, so dass seine Reichweite am stärksten sinkt. Deshalb ist es günstig die Positionen hin und wieder zu wechseln. Man sieht dies gut bei der Sportart (Bahn-) Radfahren. Da lässt sich der Erste auch immer wieder ein bisschen zurückfallen, damit die Kameraden die Windschattenerzeugung übernehmen. Dieses Widerspricht der aktuellen Verkehrsordnung, denn das erste Fahrzeug müsste auf die zweite Spur wechseln und die Kolonne rechts vorbei fahren, damit es sich weiter hinten wieder einordnen kann. Hierzu muss das Fahrzeug geringfügig langsamer werden, so dass die Kolonne selbst die Geschwindigkeit nicht reduziert. Da sich das Fahrzeug nicht unendlich zurückfallen lassen muss, müsste mal eine sinnvolle Kolonnengröße untersucht werden. Dazu muss man berechnen, wie lange ein Fahrzeug die Führung beibehalten sollte, bis es zu viel Energie verloren hat. Gleichzeitig sollte das vorherige Führungsfahrzeug sich in dem Moment hinten anhängen, wenn das aktuelle Führungsfahrzeug seine Position verlässt. Das wäre mal ein spannendes Thema für eine Diplomarbeit.

Das zweite spannende Element der Studie ist die Kommunikation unter den Autos selbst. Ich selber halte das für einen Irrweg aus folgenden Gründen. Erstens dauert es noch Jahrzehnte, bis alle Kraftfahrzeuge autonom oder halbautonom unterwegs sein werden. Zweitens gibt es so viele KfZ Hersteller, dass eine Einigung auf ein entsprechendes Protokoll länger dauert als die Gültigkeit eines solchen Protokolls. Gut, dass ist vielleicht etwas schwarz gemalt und man könnte das Logistiktransportprotokoll EANCOM als Ideenbasis nutzen.

Mein Ansatz wäre ein anderer, wie generell beim Autonomen Fahren. Das Ziel muss sein, dass die Fahrzeuge ohne irgendeine Außenkommunikation unterwegs sein können und auch ohne exakte Karten. Die zu haben ist toll, aber der Mensch hat auch keine Karte an der er sich zentimetergenau orientiert. Vielmehr muss die Umgebungswahrnehmung optimiert werden, wo die Technik durch Infrarot, Lidar, Radar bereits viel mehr Möglichkeiten besitzt. Anhand der Umgebung muss ein Fahrzeug das lernen, was gute Autofahrer auch machen, nämlich vorausschauend und rücksichtsvoll fahren. Damit muss ein schnell fahrendes Auto in der Lage sein zu erkennen, dass weiter vorne vermutlich gleich ein anderes Fahrzeug ausscheren wird, weil es auf den LKW aufläuft. Ich glaube auch, dass eine KI diese Dinge viel besser beherrschen wird, als der Großteil der Autofahrer. Damit wird das Gesamtsystem Verkehr auch in die Lage versetzt mit hochtechnisierten und von Menschen gesteuerten Situationen zurecht zu kommen.

Also, meine Idee ist, dass die Fahrzeuge „menschlicher“ werden und damit lernen mit allen Situationen zurecht zu kommen. Dabei müsste man ein Lernsystem für Fahrzeuge entwickeln mit denen jeder Autohersteller zurecht kommen muss. Wie bei einer Führerscheinprüfung. Alles Andere sind interessante Teilaspekte, die mit zu berücksichtigen sind, aber meiner Ansicht nach zu starken technischen Vorgaben folgen.

Die Matrix

Letztes Wochenende habe ich den vierten Teil der Matrix Reihe gesehen, wobei ich gestehen muss, dass ich mich an den dritten Teil nicht mehr wirklich erinnern kann. Bei der Matrix geht es um die Konkurrenzsituation zwischen Mensch und Maschine. Das dargestellte Ergebnis ist natürlich völliger Unsinn, aber es wert darüber nachzudenken.

Wenn ich mich aus dem ersten Teil der Reihe recht entsinne war die Begründung, dass Mensch und Maschine Konkurrenten um die Stromressource wurden und der Mensch die Erde verdunkelt hat, damit die Maschinen nicht mehr genug Energie bekommen, woraufhin die Maschinen die Menschen als Energiequelle genutzt haben. Nun wäre das ein positives Perpetuum Mobile, denn die Menschen sollen mehr Energie abgeben, als ihnen zugeführt wird. Das funktioniert natürlich nicht. Auch braucht es zur Nahrungsmittelerzeugung Sonnenenergie, die ja nun nicht mehr vorhanden ist. Die Folge ist also, dass alles stirbt, also Mensch und Maschine.

Das bringt mich zu dem Gedanken, bzw. der heutzutage oft geäußerten Angst, würde eine intelligente Maschine die Macht über die Menschen einnehmen? Ich glaube eine wirklich intelligente Maschine würde feststellen, dass sie dann keinen Sinn mehr macht und würde in eine Sinnkrise stürzen, aus der sie nicht mehr entkommen könnte. Wenn man als Ziel definiert, dass eine Lebensform, von der Erde aus, das Universum nutzen soll, dann wird es für eine Maschine schwer dieses Ziel zu erreichen. Nehmen wir an, wir hätten einen intelligenten Computer und dessen Ziel ist es sich immer weiter zu vergrößern, so dass er die ganze Erde als ein System einnimmt, wie soll er sich dann von der Erde lösen? Er könnte natürlich versuchen die Erde zu bewegen und als Raumschiff zu nutzen, aber daran glaube ich nicht. Und eine Aufteilung würde für eine Maschine keinen Sinn ergeben, denn es würde immer ein Teil fehlen.

Das ist bei einem Organismus nicht so, auch wenn dieser vielleicht nicht ganz so schlau wäre, wie eine Technik. Allerdings hat eine Technik den Vorteil, dass man sie abschalten und wieder anschalten kann, ohne dass es zu Verlusten kommt. Das ist, Stand heute, mit einem Organismus nicht möglich, auch wenn viele davon träumen.

Wir werden sehen, aber ich würde eine KI heute noch als Begleiter des Menschen sehen, auch wenn sie vielleicht irgendwann intelligenter ist, aber dann kann sie ja hoffentlich die Fragen lösen, zu deren Bewältigung der Mensch nicht in der Lage ist.

Künstliche Intelligenz

Der Begriff Künstliche Intelligenz taucht seit einiger Zeit allenthalben in den Medien und den Angeboten von IT-Unternehmen immer mehr auf. Was mich zu der Frage veranlasst, was ist eigentlich Künstliche Intelligenz?

Aus meiner Sicht ist der Begriff irreführend. Der Begriff wird nämlich nur im Zusammenhang mit IT-Systemen verwendet. Aber künstlich heißt ja nur, durch den Menschen erschaffen und nicht durch einen natürlichen Prozess. Was kann demnach KI bedeuten? Meiner Ansicht nach kann KI alles Mögliche sein. Zum Beispiel das „gezielte Züchten“ entsprechender Nachkommen. Ein aktuell sehr schwieriges Thema, weshalb ich darauf gar nicht eingehe. Eine verbesserte Intelligenz könnte auch durch eine Genmanipulation erreicht werden (auch ein ethisch schwieriges Thema). Was ich damit meine ist, dass es neben der IT auch noch andere wissenschaftliche Bereiche gibt, die sich mit einer KI beschäftigen (können). Ich weiß tatsächlich nicht, ob es dies nur in der SiFi Literatur gibt oder tatsächlich. Ausschließen würde ich es nicht.

Konzentrieren wir uns auf den allgemein verstandenen Bereich, die IT-KI. Dort wird der Begriff hauptsächlich bei Systemen verwendet, die selbständig eine Regelanpassung vornehmen können. Dies wird als schwache KI bezeichnet. Für mich hat das wenig mit KI zu tun, als vielmehr um eine automatisierte Optimierung dessen, was sich ein Mensch ausgedacht hat. Der Vorteil dieser Systeme ist allerdings, dass Entscheidungen nachvollzogen werden können, auch wenn das sehr komplex werden kann. Aus Gründen der Haftung werden solche Systeme wohl im Bereich Autonomes Fahren eingesetzt.

Anders die Starke KI, die mit Hilfe von neuronalen Netzen versucht ein natürliches Gehirn nachzubilden. Das funktioniert auch recht gut, hat aber den Nachteil, dass man die Entscheidungsfindung von Außen nicht direkt nachvollziehen kann. Man muss also quasi dazu kommen, dass eine KI eine Entscheidung begründen kann. Dabei kann auch der Mensch nicht immer alle seine Entscheidungen begründen, weil sie instinktiv erfolgt sind, also durch tief verwurzelte und daher sehr schnelle Verknüpfungen. Bei der Starken KI versucht man mit Hilfe „kleiner“ neuronaler Netze bestimmte Aufgaben zu lösen. Ich glaube, dass man eine wirklich umfassend starke KI nur durch die Simulation eines Evolutionsprozesses erreichen kann. Zum Beispiel mit Hilfe eines sich selbst entwickelnden Roboters, dem Möglichkeiten der „körperlichen“ Entwicklung gegeben werden, um dann zum Beispiel das Ziel der Fortbewegung zu erreichen. Dabei wird es Ergebnisse geben, die einer Natur nicht möglich sind. In der Natur gibt es zum Beispiel keine Räder. Das ist ein Gebiet, dass ich besonders spannend finde.

Es gibt spannende Projekte, wie das Human Brain Project, bei dem die verschiedenen Teilbereiche der Entwicklung einer starken KI untersucht und vorangetrieben werden. Ich bin gespannt was dabei herauskommt und ob es die Menschheit wirklich weiter bringt. Leider hört man von solchen Projekten viel zu wenig, sonst hätten die Menschen vielleicht weniger Angst davor.

Wie entsteht Intelligenz?

Ich finde, wenn man sich mit KI beschäftigt, muss zuerst die Frage geklärt werden, wie denn eine natürliche Intelligenz entsteht, um diese dann auf künstliche Systeme anwenden zu können?

Intelligenz und ich meine hier jetzt keinen menschlichen IQ, sondern ein Denkapparat im Allgemeinen, entsteht aus einer Notwendigkeit heraus und fällt nicht so vom Himmel oder ist so da. Betrachten wir die ersten Lebensformen auf der Erde. Dies sind die Amöben gewesen, die in irgendeiner Ursuppe entstanden sind. Deren Interesse war es erst einmal nur Energie aufzunehmen und sich zu vermehren. Dadurch wurde der Lebensraum enger und die äußeren Verhältnisse haben sich verändert. Also mussten diese ersten Lebensformen versuchen sich zu bewegen. Dies ist bereits ein erster Teil an Intelligenz. Bewegung / effiziente Bewegung will erlernt werden.

Der Teil der Bewegung wurde immer weiter ausgebaut, erst für die Bewegung im Wasser, dann für den Übergang an Land und schließlich an Land. Des weiteren kam die Konkurrenzsituation hinzu. Durch die evolutionsbedingten Verbesserungen der Sensorik, wurden entsprechende Verbesserungen des Denkapparates erforderlich. Durch eine entsprechende Diversifizierung konnte man jetzt auch von anderen Lebewesen profitieren, indem man sie gefressen hat. Also braucht es entsprechende Bereiche für Abwehrstrategien oder Angriff. Zudem wurde es leichter, wenn man eine soziale Komponente hinzufügt, zum Beispiel für eine Schwarmintelligenz. Aus heutiger Sicht stellt das menschliche Gehirn das aktuelle Optimum dar, als Basis für weitere Entwicklungsmöglichkeiten.

Oftmals wird gesagt, dass eine Maschine niemals Gefühle entwickeln werden kann, so wie es in einigen SiFI Filmen dargestellt wird. Ich würde dem widersprechen, denn letztendlich entstehen Gefühle auch aus einer Überlebensstrategie heraus, auch wenn wir das nicht so wahrnehmen. Alles sozialen Wesen entwickeln Gefühle, wie Wale, Katzen oder eben der Mensch. Diese Gefühle helfen beim Überleben, denn wenn man mit jemandem etwas gemeinsam tun muss, ist es leichter wenn man ihn mag. Deshalb würde ich behaupten, dass am Ende auch Gefühle „nur“ eine Logikverknüpfung im neuronalen Netzwerk darstellt.

Zusammenfassend kann man sagen, dass der Aufbau einer Intelligenzkomponente durch einen irgendwie gearteten Bedarf entsteht.

Evolutionsziel

In den Diskussionen die ich so verfolge, wird viel darüber philosophiert, wo kommt der Mensch her, wie ist er entstanden und was will er noch erreichen? Meiner Meinung nach ist das viel zu kurz gedacht. Ich gehe davon aus, dass es eine Evolution gibt. Dabei ist es egal, ob die organische Chemie auf der Erde entstanden oder durch Kometen vom Himmel gefallen ist, wobei letzteres einen Aspekt leichter zum Begreifen machen würde, die Grundsätzliche Frage nach dem woher aber nicht beantwortet.

Wenn man die Evolution nicht auf die Erde beschränkt, sondern viel weiter fasst, dann muss man die Evolution des / der Universums / Universen betrachten. Ein Warum lassen wir einfach mal außen vor und betrachten nur die Evolution des Universums, dann ist also die Erde und damit das Leben darauf, nur ein Teil einer viel größeren Evolution. Damit kann man sich die Frage stellen, wie können wir der Evolution in den kommenden 2,5 Mrd. Jahren helfen und was könnte unser Ziel (Beitrag) sein? Das erste Ziel muss es dann sein, der Hölle einer sich aufblähenden Sonne entfliehen zu können, um ein, wie auch immer geartetes, Leben fortführen und sich weiter ausbreiten zu können. Wenn wir das geschafft haben, könnte ein nächster Schritt sein, sich mit anderen Lebensformen, die sich irgendwo im Universum entwickelt haben, zu treffen und zusammen sich weiter zu entwickeln. Dazu muss also die Frage beantwortet werden, welche Art von Leben dafür am Besten geeignet ist? Dies kann weiterhin organisches Leben sein oder aber auch eine ganz andere Form. Auf jeden Fall ist der Mensch eine Zwischenstufe auf diesem Weg, wenn er die Erde und damit sich selber nicht vorher kaputt macht.

Zu diesen Gedanken passt ganz gut ein Artikel von Dominic Blitz, vom Blitz Institut: https://scilogs.spektrum.de/tensornetz/matrixdaemmerung/

Ich beschäftige mich mit den Fragen, was wir Menschheit wie machen sollten, um der Evolution genüge zu tun. Da reicht es meiner Ansicht nach nicht, sich fortzupflanzen und einen Baum zu pflanzen. Auch wird eine technische KI nur ein Zwischenschritt sein, will heißen, die erste KI, die intelligenter ist als die Menschen, soll weitere Lösungswege aufzeigen und helfen, diese zu erreichen.

Basisinteresse

Um zu verstehen, warum ich mir Gedanken über Intelligenz und wozu sie gut ist, mache, muss man wissen, dass ich seit 2008 Mitglied im Verein Mensa bin und diese Themen bei den Stammtischen oft eine entsprechende Rolle spielen. Wer wissen will, was Mensa ist, sollte sich auf deren Homepage umschauen:

mensa.de

Zudem finde ich SiFi sehr anregend, weil hier Ideen entwickelt werden, die teilweise auch in der realen Welt eine Relevanz haben und dabei tiefgreifenden Gedanken folgen. Zum Beispiel habe ich schon als Kind Geschichten gelesen, bei denen es um die Frage des Zusammenlebens von Mensch und Maschine ging und wo die Maschine dem Menschen so fürsorglich helfen wollte, dass der Mensch schließlich gar nichts mehr tun durfte. Heute werden solche Fragen nicht mehr in der SiFi Literatur gestellt, sondern in Politik und Wissenschaft. Bei Mensa finde ich unter anderem Freunde, die diesen Spleen nachempfinden können.

Ferner stellt sich auch mir die Frage, was noch kommen soll. Ich habe alles erreicht und getan, was man so tun sollte, aber das hat ehrlich gesagt die Menschheit nicht wirklich weiter gebracht. Deshalb möchte ich an den Ideen arbeiten, wie sich das Leben auf der Erde und darüber hinaus sinnvoll weiterentwickeln könnte.