Auch wenn diese Community eher für Spaß und Diskussion rund um Roboter (Spielzeug, Bastelprojekte, Haushalt, Industrie, …) gedacht ist, möchte ich gerne mit einem philosophischen Thema starten.

Nach Wikipedia lauten die Asimov’schen Robotergesetze in ihrer ursprünglichen Version:

  1. Ein Roboter darf kein menschliches Wesen (wissentlich) verletzen oder durch Untätigkeit (wissentlich) zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.
  2. Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren.
  3. Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.

Man beachte, dass die Gesetze hierarchisch aufgebaut sind.

[…]

In den Romanen Der Aufbruch zu den Sternen und Das galaktische Imperium (OT: Robots and Empire) wurde ergänzend das „Nullte Gesetz“ abgeleitet, und die anderen Drei Gesetze entsprechend modifiziert:

  1. Ein Roboter darf die Menschheit nicht verletzen oder durch Passivität zulassen, dass die Menschheit zu Schaden kommt.
  2. Ein Roboter darf keinen Menschen verletzen oder durch Untätigkeit zu Schaden kommen lassen, außer er verstieße damit gegen das nullte Gesetz.
  3. Ein Roboter muss den Befehlen der Menschen gehorchen – es sei denn, solche Befehle stehen im Widerspruch zum nullten oder ersten Gesetz.
  4. Ein Roboter muss seine eigene Existenz schützen, solange sein Handeln nicht dem nullten, ersten oder zweiten Gesetz widerspricht.

Galt in der ersten Version der Asimov’schen Robotergesetze noch der einzelne Mensch als die höchste zu beschützende Instanz, so steht in den neuen vier Robotergesetzen die Menschheit über dem einzelnen Menschen. Besonders hier wird die Konsequenz aus dem hierarchischen Aufbau der Gesetze deutlich, da ein Roboter die Unversehrtheit einer Masse von Menschen derjenigen eines Individuums vorziehen muss.

Die Einführung des nullten Gesetzes ist deshalb als kritisch anzusehen, da es Robotern die Möglichkeit gibt, einzelne Menschen absichtlich zu verletzen oder gar zu töten, um die Menschheit zu beschützen. Dies wirft die grundsätzliche Frage auf, inwieweit es Robotern erlaubt sein sollte, Menschen zu schädigen.