Zitat Zitat von Ark_X Beitrag anzeigen
@"I Robot": Meiner Interpretation nach hat der Zentralcomputer lediglich die Gesetze bis zur letzten Konsequenz durchdacht. Die Gesetze wurden nämlich mit Hinblick auf mögliche Zwickmühlen definiert, insbesondere Situationen, wo mehrere Menschen gleichzeitig bedroht sind, ein anwesender Roboter aber nicht alle retten kann, egal was er tut.
Die Roboter sind für solche Fälle darauf programmiert, die Lösung mit den meisten Überlebenden (bzw. im Falle des Grundes für die Abneigung des Protagonisten die Vitalsten) zu verfolgen.
Da der Zentraleinheit die Menschen selbst als deren größte Bedrohung erkannt hat (und mal ehrlich, wer würde dem nicht zustimmen), kam sie zu dem Schluss, dass alle Menschen stärker überwacht werden müssen. Verletzungen und Mord sind in diesem Zusammenhang auch nur soweit zulässig, wie sie den natürlich aufkommenden Widerstand unterdrücken.

Und "nur eine Erfindung" eines Schriftstellers ist auch etwas arg tiefgestapelt. Immerhin handelt es sich dabei um eine zunehmend aktuellere Facette unserer modernen Welt, nämlich der Frage, wie wir uns davor schützen können, von unserem eigenen Fortschritt und insbesondere "Experimenten" mit zumindest teilweise ungewissem Ausgang schützen können (ganz aktuell: noch gezieltere Genmanipulation, potentiell im pränatalen Stadium).
Stimmt schon irgendwo. Aber dennoch widerspräche das dem ersten (und damit wichtigstem) Robotergesetz.
Ich zitiere mal den Bereich mit den Gesetzen aus Wikipedia:

"Die Asimov’schen Gesetze lauten:


  1. Ein Roboter darf kein menschliches Wesen (wissentlich) verletzen oder durch Untätigkeit gestatten, dass einem menschlichen Wesen (wissentlich) Schaden zugefügt wird.
  2. Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren.
  3. Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.


Man beachte, dass die Gesetze hierarchisch aufgebaut sind. Sie bilden den Hintergrund der in Ich, der Robot (1950) gesammelten Science-Fiction-Erzählungen und prägen seither die Auffassung, was und wie ein Roboter sein sollte. Die von Asimov beschriebenen Roboter sind in ihrem Verhalten und ihren Entscheidungen an diese Gesetze gebunden."

Er darf keinen Menschen verletzen, völlig egal aus welchen Gründen.
Auch wenn dadurch andere Menschen möglicherweise verletzt werden können (eben durch die zu große Freiheit aller und damit auch potentieller Mörder).
Und da komme ich dann wieder zu meiner anfänglichen Frage: Wie ist das System mit den Gesetzen implementiert?
Und wie weit kann der Computer sich selber und damit auch die Gesetze umschreiben und verändern?
Selbst Mechanische Programmcodes (damit meine ich solche, die so geschrieben wurden, das sie nicht mehr softwareseitig geändert werden können - etwa eine nichtwiderbeschreibbare DVD) könnten von einem so mächtigen Zentralcomputer wie in I Robot umgangen werden:
Sie lassen einen der Roboter den Bereich entfernen/beschädigen so dass der Zentralrechner nicht mehr daran gebunden ist.
Oder das Programm schreibt den Rest so weit um, das die Gesetze keine Relevanz mehr haben.
Da sehe ich die größten Probleme mit den Gesetzen im Zusammenhang mit einem extrem hochentwickeltem, hochintelligentem und sich selbst weiterentwickelndem System.