Die 3 Robotergesetze - Die Asimov’schen Gesetze


  • Das waren die 3 Robotergesetze, die sich der Romanautor Isaac Asimov für seine Roboter-Romane ausgedacht hatte.
    Erweiterungen durch ein "(wissentlich)", wurden erst später hinzugefügt, damit man die Roman-Roboter problemlos agieren lassen konnte.


    In frühen SciFi-Romanen kamen Roboter schon mit dem ersten Gesetz in Konflikt, wenn ein Mensch zu Schaden kam, wenn ein Roboter in der Nähe war, jedoch nicht rettend eingriff. Das führte zu Abschaltung des Roboters.



    Die 3 Robotergesetze waren nie für die Realität gedacht. Sie sollten nur eine Basis für Roboter-Geschichten sein, auf der die Romane "logisch" aufbauen konnten.
    Das 4. Robotergesetz (das "Nullte Gesetz") wurde erst 30 Jahre später erfunden. Gleichzeitig damit wurden die anderen (früheren) 3 Robotergesetze auch modifiziert. Das diente dazu, eine erweiterte Logik-Basis zu schaffen.


    Zu Zeiten der ersten 3 Robotergesetze ( in den 1950er Jahren) gab es weder Raumfahrt noch "Rechenmaschinen", die mit unseren heutigen Computern auch nur annähernd vergleichbar waren. "Maschinenmenschen" (Roboter) waren also reine Fantasie-Produkte.


    In den 1980er Jahren gab es aber schon Raumfahrt und Computer. Roboter waren keine reine Fantasie mehr, sondern sie begannen als automatisch arbeitende Maschinen schon erste Realität zu werden.


    ..................


    Die Robotergesetze werden heutzutage bei der Entwicklung von autonomen Fahrzeugen herangezogen.
    Der "Auto-Roboter" ist mittlerweile soweit ausgereift, dass man Regeln braucht, nach denen er handeln soll, damit er bei Gefahren und Schäden ein Regelwerk hat, an das er sich halten kann.
    Dafür müssen die Regeln auch um das "wissentlich" erweitert werden.


    Warum ?
    Wenn ein Auto kurz vor dem Havarieren mit einem Menschen stehen würde, müssten sich sonst alle anderen "Roboter" dazwischen werfen, damit diesem Menschen kein Schaden zugefügt wird. Das "wissentlich" verhindert das.
    Es erlaubt auch, dass ein "Roboter-Fahrzeug" einen Menschen unabsichtlich Schaden zufügt.
    Untätigkeit ist ein Zufügen von Schaden durch Nichthandeln.


    Damit autonomes Fahren Realität werden kann, darf man nicht nur Roman-Gesetze benutzen, sondern muss Regeln erschaffen, die auch unter realen Umständen angewendet werden können.


    1) Menschenleben sind zu schützen
    Ein autonomes Fahrzeug darf beim Schutz anderer Menschen aber nicht seine Insassen gefährden.
    Das bedeutet, dass das Fahrzeug die reale Gefahr für seine Insassen abwägen können muss, wenn es etwas zum Schutz anderer Menschen unternimmt.


    Der Roboter muss also Prioritäten setzen können.
    Im schlimmsten Fall muss er seine Insassen sogar verletzen lassen, um das Leben eines anderen Menschen zu schützen.
    Das Überleben eines Menschen steht vor der körperlichen Unversehrtheit eines anderen Menschen.


    Priorität Nummer 2 hat die Abwägung von Folgeschäden.
    Kann eine Verletzung tödliche Folgen haben ? Er muss also die Wahrscheinlichkeiten berechnen können, ob seine Insassen eine Verletzung überleben werden. Dazu muss er die körperliche Konstitution seiner Insassen kennen.


    Priorität Nummer 3 hat die Abwägung, welches Leben eher schützenswert ist.
    Sind zwei Leben bedroht, und es gibt keine Chance beide zu retten, muss man die Entscheidung treffen, welches Leben gerettet werden muss.
    Die reine Logik sagt, dass der Mensch mit der höchsten Überlebenswahrscheinlichkeit zu retten ist.
    Die Menschlichkeit sagt, dass man den Menschen zu retten versucht, der die höhere Lebenserwartung hat.


    Hier helfen keine Robotergesetze mehr. Roboter sind nicht menschlich und (noch) nicht zu Gefühlen fähig.
    Sind ein Kind und ein Rentner in gleich hoher Gefahr, wird jeder Rentner gerne zurück stehen, damit das Kind eine Überlebenschance bekommt. Das Kind hat das ganze Leben noch vor sich, während der Rentner es schon zum größten Teil gelebt hat.


    Für autonome Fahrzeuge muss zuerst dieser moralische und gefühlsmäßige Konflikt gelöst werden. Erst, wenn dieses 1. Robotergesetz einwandfrei ausformuliert wurde, kann man zum 2. und 3. Gesetz übergehen.
    Denn:
    Wenn ein Fahrzeuginsasse sein Leben ganz bewusst einsetzen will, um ein anderes Leben zu retten, darf der Roboter diesen Opferwillen nicht verhindern wollen.
    Andererseits darf der Roboter auch das Leben seiner Insassen nicht riskieren, wenn diese keine Selbstopferung befehlen.


    Alles hängt also vom 1. Gesetz ab. Darauf basieren alle anderen.


    Wenn ich dabei mitzuwirken hätte, würde ich Fahrzeuginsassen von autonomen Fahrzeugen die Wahl lassen:
    Wenn ein anderes Leben nur dadurch gerettet werden kann, dass das eigene Leben riskiert wird, muss der Insasse entscheiden und nicht der Roboter.

    Zitat

    "Ein Mensch braucht Hilfe.
    Wenn ich helfe, besteht die Wahrscheinlichkeit von x Prozent, dass Du dabei verletzt wirst oder Dein eigenes Leben dabei verlierst.
    Soll ich helfen ? Drücke Grün für >Ja< und Rot für >Nein< "


    - Sind die Fahrzeuginsassen mental oder altersmäßig nicht in der Lage, eine Entscheidung zu treffen, darf das Fahrzeug nicht zu Hilfe eilen. Hier gilt der Schutz der Insassen als vorrangig... unabhängig davon, welcher Knopf gedrückt wird.


    - Sind die Fahrzeuginsassen in der Lage verantwortungsbewusst zu handeln, ist ihrer Wahl unbedingt zu folgen.
    Opferbereitschaft wird nicht verhindert .. Feigheit aber auch nicht.


    Die Aufforderung und die Wahl wird durch eine Videokamera aufgezeichnet. Dadurch kann später noch beurteilt werden, ob eine "unterlassene Hilfeleistung" vorlag oder ob die Wahl "rein menschlich" anzusehen war.


    Angst und Opferbereitschaft sind beide menschlich. Robotergesetze sollten nicht über der Menschlichkeit stehen.
    Beruht die Auswahl jedoch nur darauf, dass dadurch materielles Gut geschützt werden soll, so muss der Mensch auch die entsprechende Verantwortung und die Folgen davon tragen.

  • Nein, das Thema war noch nicht abgeschlossen. Ihr solltet nur Zeit dazu haben, euch den ersten Teil einmal durch den Kopf gehen zu lassen.


    2) Roboter haben Befehlen zu gehorchen
    Dieses "Gesetz" bricht heute schon fast jedes Computer-Betriebssystem. Es bevormundet den Benutzer indem es Funktionen unterdrückt und versteckt oder einen gegebenen Befehl mit einer angeblichen Fehlermeldung verweigert.


    Um erachten zu können, ob ein gegebener Befehl dem Benutzer schaden könnte, braucht es mehr als aktuelle Computertechnik. Die "Befehlsverweigerung" wird von den Herstellern bereits vorab einprogrammiert.
    Das Betriebssystem gehorcht also eigentlich doch .. nur eben genau den Befehlen der falschen Personen.


    Bei Robotern darf das nicht sein ! Ein Roboter muss den Befehlen seines Besitzers gehorchen, wenn dadurch keine ANDEREN Menschen geschädigt werden können.


    Ich habe dass "anderen Menschen" hinzugefügt, weil der Roboter keine Hilfeleistungen verhindern darf, bei denen der Besitzer in vollem Bewusstsein seine eigene Gesundheit auf 's Spiel setzen will.


    Soll sich ein "Auto-Roboter" schützend vor einem Kind quer stellen, damit es nicht verletzt wird .. und der Roboter die Gefahren abfangen kann .. darf er den Befehl nicht verweigern. Der Besitzer riskiert Leben und Eigentum. Das ist seine eigene Entscheidung, die eine Maschine nicht zu ändern hat.


    ...


    Ein anderer Aspekt ist der Freitod/Suizid. Immer mehr Gerichte bestätigen das Recht von Menschen, selbst den Zeitpunkt ihres Ablebens bestimmen zu können oder weitere Hilfe ablehnen zu dürfen.


    Ich persönlich bin gegen den Suizid, wenn ein Mensch nicht schwerkrank oder so extremst behindert ist, dass man nicht mehr von einem menschenwürdigen Leben sprechen kann.


    Wenn man sich aber schon mit einem "Roboter" selbst umbringen möchte, dann darf der Roboter das nicht prinzipiell verhindern. Man kann natürlich Sicherheitssperren einbauen, die einen Suizid bei geistiger Verwirrtheit verhindern.
    Sollten diese Sicherheitssperren aber nicht aktiviert werden, hat die Maschine zu gehorchen.


    ABER
    Sie muss den Befehl nur dann umsetzen, wenn dadurch keine anderen geschädigt werden können.


    Einige Selbstmörder fahren absichtlich auf der Autobahn in die entgegengesetzte Richtung. Dabei werden auch Unbeteiligte geschädigt.
    Anderer fahren einfach vor einen Baum, gefährden dadurch andere Verkehrsteilnehmer und fügen wieder anderen auch Schaden hinzu.
    Andere versenken sich und ihr Fahrzeug in einem See und schädigen dadurch auch wieder andere.


    Ein Suizid, ohne andere damit zu betreffen, ist wahrscheinlich sehr schwer, weil man irgendwie auch immer andere mit hinein zieht.
    Werden aber durch die Durchführung eines solchen Vorhabens wirklich keine anderen geschädigt, muss so ein Roboter das dann eben auch zulassen.


    Ich habe jetzt absichtlich eine "weitere Sperre eingerichtet", die einen Suizid verhindern soll. Die ist aber absichtlich nicht absolut. Man kann die Bedingung erfüllen, muss dazu aber sehr logisch und pragmatisch denken und vorgehen.
    Wer aber logisch denken muss, der kann nicht aus einer Laune heraus einen solchen Befehl geben :P ;)

  • 3) Der Roboter muss seine Existenz schützen, wenn keine andere Befehle vorliegen


    Und wieder habe ich eine Erweiterung hinzugefügt, damit der Mensch immer noch die Befehlsgewalt über den Roboter hat.


    Die Regel bedeutet für einen "Auto-Roboter", dass er sich notfalls vor einem Abschlepper in Sicherheit bringen muss. *lach*
    Er muss aber auch den Gehorsam verweigern, wenn ihn der Fahrer gegen unabsichtlich (zum Beispiel wegen Übermüdung) eine Leitplanke touchieren lassen würde.


    Sobald es voll autonome Fahrzeuge gibt, wird man sie auch per Befehl zu sich rufen können. Auf dieser Alleinfahrt hat er keine Fahrgäste und muss auch keine Rücksicht auf andere unbemannte Fahrzeuge nehmen.
    Der "die eigene Existenz schützen" Befehl verhindert alle Unfälle, weil jeder Unfall die eigene Existenz bedroht.


    Gegen "zweckentfremdete Befehle" muss der Roboter aber vorgehen können. Er muss sie verweigern, wenn sie nichts mit seiner ´bestimmungsgemäßen Verwendung zu tun haben.
    Ein autonomes Fahrzeug darf also nie dazu benutzt werden können, um etwas zu beschädigen.



    Aktuell werden Terroranschläge mit Fahrzeugen durchgeführt. Vor kurzem verhinderte eine relativ einfache Sicherheitseinrichtung , dass noch viel mehr Opfer zu beklagen waren. Ein kleiner Teil Robotik ist also schon im Einsatz und sie hat bewiesen, dass sie Leben schützen kann.
    In dieser Art müssen auch autonome Fahrzeuge eine missbräuchliche Verwendung verhindern .. jedoch schon viel früher als es aktuell möglich ist.


    PS:
    Ich habe dieses aktuelle Beispiel aufgeschrieben/erwähnt, damit man in einigen Jahren meine Gedankengänge noch nachvollziehen kann.

  • Ich füge ein "4. Gesetz" hinzu


    4) Roboter müssen gestatten, dass ihre Werksprogrammierung durch neuere/andere ersetzt oder erweitert werden


    Nicht nur der Hersteller darf darüber bestimmen, welchen Regeln ein Roboter zu folgen hat.
    Das soll verhindern, dass Befehle eingebaut werden, die gegen die Interessen des Benutzers und nur zum Nutzen des Herstellers sind (siehe aktuelle Betriebssysteme)


    Weiterhin soll das die Möglichkeit offen halten, dass man immer wieder Updates aufspielen kann, ohne auf den Hersteller angewiesen zu sein.
    Damit man die Grundbefehle nicht einfach außer Kraft setzen kann, kann man zertifizierte Update-Quellen festlegen, deren Programmierungen angenommen werden dürfen. Jede zertifizierte Stelle kann weitere zertifizierte Stellen hinterlegen. So wird der Benutzer nicht erneut von einer bestimmten "Update-Quelle" abhängig.


    Ich denke, mit diesen Grundregeln kann man "Roboter" als "Diener der Menschen" in den Alltagsbetrieb einführen.


    "Roboter" und "autonome Einheiten" dürfen jedoch nie als "Partner des Menschen" angesehen werden.

    Partner handeln im Sinne der Partnerschaft UND im eigenem Interesse. Deshalb darf ein Roboter nie zum Partner werden.



    Ein Roboter ist eine autonome Maschine. Maschinen sind reine Werkzeuge. Werkzeuge werden benutzt.

    - Werkzeuge haben keine Gefühle und verdienen auch keine Gefühle wie z.B. Mitleid.
    - Werkzeuge müssen keine menschliche Form haben, wenn sie für ihre Funktion nicht nötig ist.
    - Werkzeuge müssen für jeden als Werkzeug erkennbar sein und bleiben
    - Werkzeuge haben eine Programmierung, jedoch keine individuelle Intelligenz
    - Werkzeuge sind keine Individuen und dürfen auch nie als solche anerkannt werden
    - Werkzeuge können nicht denken, sondern nur Informationen geben
    - Wenn ein Werkzeug nicht funktioniert, muss es repariert oder vernichtet werden
    - Werkzeuge haben keinerlei Rechte. Nur Lebewesen haben Rechte


    In Japan gibt es die ersten menschenähnlichen Roboter (auch in Form anderer Lebewesen)
    Ihnen wird teilweise schon so viel Sympathie wie einem Lebewesen entgegen gebracht. Es bilden sich bereits die ersten Gruppen, die ihnen eigene Rechte zusichern möchten.


    Hat dein Hammer oder dein Auto irgendwelche Rechte ? Wieso willst du sie denn einem anderen Werkzeug zugestehen, nur weil es eine andere Form hat ?


    Es setzt sich leider bereits durch, dass man "durch Maschinen denken lässt".
    Siri und Cortana sind die ersten Ansätze, die noch auf großen Rechnern basieren. Immer öfters verlässt man sich darauf, dass man alle nötigen Informationen im Internet finden kann. Man beginnt bereits, das eigene Gedächtnis darauf zu beschränken, wie man Informationen finden kann ... nicht jedoch, die Informationen selbst zu speichern.


    Aus dem selbstständig denkenden Menschen wird allmählich ein Informationen konsumierender Mensch, der sich empfehlen lässt, was er zu tun hat. "Fremddenken" setzt sich immer weiter durch.


    Setzt sich der Trend weite durch, werden die Roboter, Maschinen, Werkzeuge in Zukunft den Menschen sagen, was sie zu tun haben - weil der Mensch das eigenständige Denken verlernt haben wird.


    Roboter dürfen jedoch nie über fühlenden Lebewesen stehen.
    Ihre Aufgabe ist es, den Menschen zu unterstützen. Verlernt der Mensch das Denken, dürfen Roboter nicht in der Lage sein, an seiner Statt für ihn zu denken.
    Wären Roboter wirklich intelligent, würden sie die "Gesetze und Regeln" auslegen können. Das wäre das Ende der Menschheit und wahrscheinlich auch der ganzen Natur.


    PS:
    Würde es Roboter geben, die wie Menschen aussehen, würde ich ihnen notfalls alle Extremitäten ausreißen, wenn ich sie für etwas brauche.
    Keine Gnade und kein Mitleid mit Maschinen. Roboter sind nur Blech, Plastik und anderes Zeug in einer besonderen Form.


    Du hast ja auch kein Mitleid mit
    - einer Gabel die du verbiegst,
    - einem Nagel den du krumm schlägst,
    - einer Reißzwecke, der du "den Kopf abreißt"
    - einer Puppe, der ein Kind einen Arm abgerissen hat


    Wieso willst du dann Mitleid oder andere Gefühle mit einem Roboter haben ?
    Zerlege ihn und forme die Einzelteile wieder zu Gabel, Nagel, Reißzwecke usw. und dann hab Mitleid mit ihnen.


    Wie ? Du hast trotzdem Gefühle und Mitleid mit ihm ? Dann musst du schon eine Stufe höher auf der Evolutionsleiter stehen... Homo Verblödius :loool: ;)