Ein Gedanke (bzw. eine Frage), die mir gerade noch kam: Falls der Roboter trotz einprogrammiertem menschlichen Verhalten sich unterbewusst immer noch nach den
Robotergesetzen richtet, könnte man ihn folgendes fragen:
"Könntest du zur Selbstverteidigung einen Menschen verletzen oder sogar töten?"
Ein "Nein" wäre zwar auch kein 100%iger Indikator (sofern dem Fragenden überhaupt mitgeteilt wird, ob die Robotergesetze Gültigkeit haben), aber doch möglicherweise ein starker Hinweis oder was denkt ihr?
...