Mahlzeit!
Wie könnte denn eine KI mehr tun, als man ihr eigentlich einprogrammiert hat? Wie ich ja schon geschrieben habe, ein neuronales Netz ist im Allgemeinen nichts anderes als eine überdimensionierte if Abfrage. Überdimensioniert im Sinne von lernfähig. Von Sich aus macht die aber nichts.
Was müsste denn nun passieren, um eine KI so lernfähig zu machen, dass sie von sich aus Entscheidungen trifft? Nun, einen Weg dazu fällt mir tatsächlich ein und der ergibt sich aus meinen Experimenten, bzw. aus den Erfahrungen, welche ich daraus gezogen habe und wie ich einen Roboter schliesslich so bauen würde, dass er wirklich wie ein Kind oder Hund aus seinen Erfahrungen lernt.
Der Trick dabei ist nämlich, nicht nur ein neuronales Netz zu verwenden. Ist im Gehirn ja eigentlich auch so, da gibt es ja auch das Kleinhirn, Grosshirn usw.
Okay. Also bastelt man das quasi nach. Ich wollte und will ja einen fahrbaren Roboter bauen. Der Roboter bekommt eine oder zwei Kameras und ein neuronales Netz, was nur für das zuständig ist, was der Roboter sieht. Dieses Netz lernt dann mit der Zeit, was ein Stein ist, eine Strecke, auf der er sich gut bewegen kann, was eine Treppe ist usw. Er fährt also auf einen Stein zu, das Netz der Augen erkennt den Stein und schickt das Ergebnis an ein weiteres Netz, welches die globalen Entscheidungen trifft. Das hat mit der Zeit gelernt, ein Stein ist ein Hindernis und das gilt es zu umfahren. Also entscheidet es sich, die Richtung zu ändern, was es an die Motoren weiterleitet. Diese werden dann so gesteuert, wie beim Mensch auch. Keiner von uns weiss ganz genau, wo welcher Muskel bewegt werden muss, damit man laufen kann. Also kann man auch in einem Roboter Funktionen einbauen, welche die Motoren steuern. Das Haupnetz sagt also nur noch, Links umfahren und die Motoren werden dann durch normalen Code gesteuert.
Das klingt ja gut, hat aber den gleichen Haken, wie der Spieler in meinem Spiel. Man stellt den Roboter auf den Boden, schaltet ihn ein und der macht nichts. Warum? Weil er gar nicht weiss, was er machen soll. Er braucht Instinkte.
Diese Instinkte sind dann wieder aus der Natur entlehnt und Hardcodiert. Also kein Netz, die werden vom Code vorgegeben. Der logischste Instinkt ist die Selbsterhaltung. An den Akku wird also ein Spannungsmesser verbaut und der an ein weiteres neuronales Netz angeschlossen. Theoretisch geht das auch mit dem nächsten Nachbarn oder gar einfachem Code, aber wir wollen ja einen Roboter bauen, welcher unter Umständen auch etwas tun könnte, worauf man ihn nicht programmiert hat.
Dieses Netz ist nun verbunden mit dem Spannungsmesser. Es lernt mit der Zeit, wenn die Spannung unter einen gewissen Wert fällt, geht kurz darauf das Licht aus. Es hat aber auch eine Verbindung zu einem Solarpanel, welches die beste Position für Sonnenlicht und beste Lademöglichkeit erkennt. Einfach mit vier Phototransistoren zum Beispiel. Es hat auch gelernt, bei einem gewissen Punkt ist es dann kein Problem mit dem Strom, wenn man das Solarpanel entsprechend positioniert. Es schickt seine Entscheidung wieder an das Hautnetz und das hat gelernt, wenn es Hunger hat, in de Fall nach Strom, sind alle anderen Instinkte sekundär und es heisst jetzt, Soloarpanel ausrichten. Das Netz für den "Hunger" gibt dann auch an das Hauptnetz weiter, in welche Richtung sich der Roboter drehen muss, um möglichst viel Energie über das Solarpanel zu bekommen und das Hautnetz entscheidet, in welche Richtung es nun drehen will. Ist die beste Position erreicht, bleibt der Roboter erst einmal stehen, bis er satt ist.
So baut man dann einen Instinkt nach dem anderen ein. Neugier zum Beispiel. Ein weiteres Netz wird eingebaut, welches Neugier lernt. Das ist nicht ganz trivial. Dieses Netz muss zum Beispiel lernen, was es schon kennt und was nicht. Am Anfang kennt es gar nichts und alles, was vom "Sehnerv" gemeldet wird ist neu. Also schickt es an das Hauptnetz die Entscheidung, dieses Neue mal unter die Lupe zu nehmen. Ist es ein Hindernis? Kann man es befahren? Gibt es da irgendwelche Probleme oder Nutzen?
Ein weiterer Instinkt, der durchaus einen Sinn hat wäre Angst. Das ist auch nicht ganz so einfach zu realisieren, denn dafür muss der Roboter auch wissen, was ihm schaden kann. Zum Beispiel eine Treppe runter stürzen könnte dazu führen, dass er sich nicht mehr bewegen kann. Die Angst müsste dann lernen, dass wenn der Sehnerv einen Abgrund erkennt, dies zu Problemen führen kann, theoretisch ja auch zu seinem Ende, wenn man den Verlust der Spannungsversorgung so nennen will. Also muss es die Entscheidung an das Hauptnetz senden, dass es keine gute Idee ist, irgendwo hin zu fahren, wo kein Boden ist.
Alles klar. Man merkt schon, dass die ganze Nummer wirklich komplex ist und da kommt dann der Punkt ins Spiel, weshalb so eine KI dann doch irgendwann etwas tun könnte, womit man nicht gerechnet hat. Der Knackpunkt hierbei ist, der Sehnerv läuft in Dauerschleife, genau wie die Neugier, die Angst, der Hunger. Nach jedem Durchlauf wird ein neuer Durchlauf mit neuen Daten gestartet. Bis hierhin ist das auch noch kein Problem, denn jedes Netz macht immer nur seine spezifische Aufgabe, wie es ChatGPT zum Beispiel auch macht. Das Problem könnte dann in dem Hauptnetz sein, welches alle Entscheidungen übermittelt bekommt und daraus seine Entscheidung trifft. Denn genau das ist der Teil, der keine spezifische Aufgabe hat, sondern seine Entscheidungen aus seinen Erfahrungen zieht.
Nehmen wir mal an, so ein Roboter wäre gross, schwer und stark genug, dem Menschen zu schaden. Der Sehnerv sagt ihm nun, ah ein Mensch. Neugier sagt, was kann man denn damit machen usw. Alles nur Abfragen. Doch was hat das Hauptnetz gelernt? Zum Beispiel könnte die Angst gelernt haben, der Mensch kann mich ausschalten, also sehe ich einen Menschen, rate ich zur Vorsicht. Dadurch könnte das Hauptnetz das unerwartete Verhalten entwickeln, vor dem Mensch immer zurückzuweichen.
Was aber, wenn dieses Netz durch seine Neugier gelernt hat, dass es den Mensch auch wegschubsen kann? Sagen wir mal, der Hunger sagt dem Netz, dass es Zeit wird zum laden. Der Sehnerv weist aber dann bei der Suche des besten Ladepunktes daraufhin, dass da ein Hindernis in Form eines Menschen vorhanden ist. Nun könnte das Netz, aus einem Selbsterhaltungstrieb heraus, den Mensch nun anfahren, um an seine perfekte Position zu kommen. Wenn dabei der Roboter dem Menschen schaden zufügen kann, indem er seine kinetische Energie mittels höherer Geschwindigkeit vergrössert, könnte dem Mensch wirklich Schaden zugefügt werden.
So könnte ich mir vorstellen, dass eine KI wirklich zu einer ernsten Bedrohung für den Menschen werden könnte. Die Gefahr wächst natürlich, je mehr Fähigkeiten man einem solchen Roboter zugesteht. Das Spiel kann man ja auch wirklich weit treiben. So könnte man einem Roboter ja auch die Fähigkeit geben, Teile selbst zu drucken und diese auch noch zu kombinieren und ihn mit einem Fortpflanzungsinstinkt ausstatten. Natürlich eine erlernte und nicht statische Fortpflanzung. Damit der Roboter seinem Nachfahren vielleicht selbst Fähigkeiten gibt, der er bei sich schmerzlich vermisst. Tatsächlich ist das gar nicht so weit hergeholt, wenngleich der Roboter aber auch Zugriff auf Elektronik haben müsste, die er dann mit Code versieht. Aber auch das ist heute kein Ding der Unmöglichkeit.
Der Knackpunkt hierbei bleibt aber, wirklich alles muss selbst lernen und eigene Erfahrungen entwickeln. Ausserdem müssen alle Netze in Dauerschleife laufen und nicht auf einen Input von aussen warten, wie eben bei den derzeit gängigen KIs wie ChatGPT.
Dabei komme ich dann aber zu einem in meinen Augen zentralen Punkt. Wenn ich, der weder Informatik studiert hat, kein Ingenieur ist und KI durch Youtube und diverse Arbeiten deutlich schlauerer Menschen gelernt hat, zu dem Schluss kommt, dass KI nur dann wirklich gefährlich wird, wenn man ihr die Fähigkeit dazu gibt, dann sollten die echten Profis und Leute mit einem höheren IQ als einen ebenfalls zu diesem Schluss kommen. Ja, gut, da gibt es noch das Militär, was ja oft nur denkt von 12 bis Mittag. Aber davon ab sollte jedem, der sich mit KI beschäftigt klar sein, diese ganzen lernenden Netze sind nichts weiter als lernfähige Abfragen. Solange ich denen nicht die Fähigkeit gebe, sich zu etwas zu entwickeln was ich nicht haben will, wird auch nichts passieren.
Insofern ich jemals mit meinen Experimenten zu dem Thema weitermache, werde ich definitiv keinen Roboter bauen, welcher mir Schaden zufügen könnte. Egal was er lernt, egal wie sehr er mich dadurch als Feind oder Hindernis erachten könnte. Im schlimmsten Fall wird einfach auf das Ding drauf getreten und das Problem ist gelöst.