Zitat Zitat von Ark_X Beitrag anzeigen
Ein Gedanke (bzw. eine Frage), die mir gerade noch kam: Falls der Roboter trotz einprogrammiertem menschlichen Verhalten sich unterbewusst immer noch nach den Robotergesetzen richtet, könnte man ihn folgendes fragen:
"Könntest du zur Selbstverteidigung einen Menschen verletzen oder sogar töten?"

Ein "Nein" wäre zwar auch kein 100%iger Indikator (sofern dem Fragenden überhaupt mitgeteilt wird, ob die Robotergesetze Gültigkeit haben), aber doch möglicherweise ein starker Hinweis oder was denkt ihr?
In der Situation würde ich mit denen eigentlich gar nicht erst anfangen.
Ziel ist es ja, einen möglichst glaubwürdigen Menschen zu simulieren (sonst würde das ganze ja keinen Sinn ergeben).
Warum sollte man sich (bzw. den Roboter) dann unnötig so stark beschränken?
Vor allem steht noch die Frage im Raum, ob jemand überhaupt menschlich sein kann, wenn er keinen freien Willen hat - den der wird ja durch diese Gesetzte (würd es eher Zwänge nennen) unterdrückt.

Man könnte sie vielleicht ansprechen, wobei ich sie ganz weglassen würde.
Immerhin sind sie auch nur eine Erfindung eines Schriftstellers.
Wie - und ob überhaupt - das in einen komplexen sich wandelnden und lernfähigen Organismus implementiert werden kann; die Frage wird dabei auch völlig außer acht gelassen (siehe "I Robot", dass auch von dem Erfinder der Roboter-Gesetze kommt (wenn ich mich recht erinnere) und dort schafft es das Ober-System ja auch die Menschen als Bedrohung zu klassifizieren, also die Gesetze zu umgehen).