ZitatAlles anzeigen
Gesetz 1
Ein Roboter darf kein menschliches Wesen verletzen oder durch Untätigkeit zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.
Gesetz 2
Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren.
Gesetz 3
Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.
Das waren die 3 Robotergesetze, die sich der Romanautor Isaac Asimov für seine Roboter-Romane ausgedacht hatte.
Erweiterungen durch ein "(wissentlich)", wurden erst später hinzugefügt, damit man die Roman-Roboter problemlos agieren lassen konnte.
In frühen SciFi-Romanen kamen Roboter schon mit dem ersten Gesetz in Konflikt, wenn ein Mensch zu Schaden kam, wenn ein Roboter in der Nähe war, jedoch nicht rettend eingriff. Das führte zu Abschaltung des Roboters.
Die 3 Robotergesetze waren nie für die Realität gedacht. Sie sollten nur eine Basis für Roboter-Geschichten sein, auf der die Romane "logisch" aufbauen konnten.
Das 4. Robotergesetz (das "Nullte Gesetz") wurde erst 30 Jahre später erfunden. Gleichzeitig damit wurden die anderen (früheren) 3 Robotergesetze auch modifiziert. Das diente dazu, eine erweiterte Logik-Basis zu schaffen.
Zu Zeiten der ersten 3 Robotergesetze ( in den 1950er Jahren) gab es weder Raumfahrt noch "Rechenmaschinen", die mit unseren heutigen Computern auch nur annähernd vergleichbar waren. "Maschinenmenschen" (Roboter) waren also reine Fantasie-Produkte.
In den 1980er Jahren gab es aber schon Raumfahrt und Computer. Roboter waren keine reine Fantasie mehr, sondern sie begannen als automatisch arbeitende Maschinen schon erste Realität zu werden.
..................
Die Robotergesetze werden heutzutage bei der Entwicklung von autonomen Fahrzeugen herangezogen.
Der "Auto-Roboter" ist mittlerweile soweit ausgereift, dass man Regeln braucht, nach denen er handeln soll, damit er bei Gefahren und Schäden ein Regelwerk hat, an das er sich halten kann.
Dafür müssen die Regeln auch um das "wissentlich" erweitert werden.
Warum ?
Wenn ein Auto kurz vor dem Havarieren mit einem Menschen stehen würde, müssten sich sonst alle anderen "Roboter" dazwischen werfen, damit diesem Menschen kein Schaden zugefügt wird. Das "wissentlich" verhindert das.
Es erlaubt auch, dass ein "Roboter-Fahrzeug" einen Menschen unabsichtlich Schaden zufügt.
Untätigkeit ist ein Zufügen von Schaden durch Nichthandeln.
Damit autonomes Fahren Realität werden kann, darf man nicht nur Roman-Gesetze benutzen, sondern muss Regeln erschaffen, die auch unter realen Umständen angewendet werden können.
1) Menschenleben sind zu schützen
Ein autonomes Fahrzeug darf beim Schutz anderer Menschen aber nicht seine Insassen gefährden.
Das bedeutet, dass das Fahrzeug die reale Gefahr für seine Insassen abwägen können muss, wenn es etwas zum Schutz anderer Menschen unternimmt.
Der Roboter muss also Prioritäten setzen können.
Im schlimmsten Fall muss er seine Insassen sogar verletzen lassen, um das Leben eines anderen Menschen zu schützen.
Das Überleben eines Menschen steht vor der körperlichen Unversehrtheit eines anderen Menschen.
Priorität Nummer 2 hat die Abwägung von Folgeschäden.
Kann eine Verletzung tödliche Folgen haben ? Er muss also die Wahrscheinlichkeiten berechnen können, ob seine Insassen eine Verletzung überleben werden. Dazu muss er die körperliche Konstitution seiner Insassen kennen.
Priorität Nummer 3 hat die Abwägung, welches Leben eher schützenswert ist.
Sind zwei Leben bedroht, und es gibt keine Chance beide zu retten, muss man die Entscheidung treffen, welches Leben gerettet werden muss.
Die reine Logik sagt, dass der Mensch mit der höchsten Überlebenswahrscheinlichkeit zu retten ist.
Die Menschlichkeit sagt, dass man den Menschen zu retten versucht, der die höhere Lebenserwartung hat.
Hier helfen keine Robotergesetze mehr. Roboter sind nicht menschlich und (noch) nicht zu Gefühlen fähig.
Sind ein Kind und ein Rentner in gleich hoher Gefahr, wird jeder Rentner gerne zurück stehen, damit das Kind eine Überlebenschance bekommt. Das Kind hat das ganze Leben noch vor sich, während der Rentner es schon zum größten Teil gelebt hat.
Für autonome Fahrzeuge muss zuerst dieser moralische und gefühlsmäßige Konflikt gelöst werden. Erst, wenn dieses 1. Robotergesetz einwandfrei ausformuliert wurde, kann man zum 2. und 3. Gesetz übergehen.
Denn:
Wenn ein Fahrzeuginsasse sein Leben ganz bewusst einsetzen will, um ein anderes Leben zu retten, darf der Roboter diesen Opferwillen nicht verhindern wollen.
Andererseits darf der Roboter auch das Leben seiner Insassen nicht riskieren, wenn diese keine Selbstopferung befehlen.
Alles hängt also vom 1. Gesetz ab. Darauf basieren alle anderen.
Wenn ich dabei mitzuwirken hätte, würde ich Fahrzeuginsassen von autonomen Fahrzeugen die Wahl lassen:
Wenn ein anderes Leben nur dadurch gerettet werden kann, dass das eigene Leben riskiert wird, muss der Insasse entscheiden und nicht der Roboter.
Zitat"Ein Mensch braucht Hilfe.
Wenn ich helfe, besteht die Wahrscheinlichkeit von x Prozent, dass Du dabei verletzt wirst oder Dein eigenes Leben dabei verlierst.
Soll ich helfen ? Drücke Grün für >Ja< und Rot für >Nein< "
- Sind die Fahrzeuginsassen mental oder altersmäßig nicht in der Lage, eine Entscheidung zu treffen, darf das Fahrzeug nicht zu Hilfe eilen. Hier gilt der Schutz der Insassen als vorrangig... unabhängig davon, welcher Knopf gedrückt wird.
- Sind die Fahrzeuginsassen in der Lage verantwortungsbewusst zu handeln, ist ihrer Wahl unbedingt zu folgen.
Opferbereitschaft wird nicht verhindert .. Feigheit aber auch nicht.
Die Aufforderung und die Wahl wird durch eine Videokamera aufgezeichnet. Dadurch kann später noch beurteilt werden, ob eine "unterlassene Hilfeleistung" vorlag oder ob die Wahl "rein menschlich" anzusehen war.
Angst und Opferbereitschaft sind beide menschlich. Robotergesetze sollten nicht über der Menschlichkeit stehen.
Beruht die Auswahl jedoch nur darauf, dass dadurch materielles Gut geschützt werden soll, so muss der Mensch auch die entsprechende Verantwortung und die Folgen davon tragen.