Seite 2 von 2 ErsteErste 12
Ergebnis 21 bis 25 von 25

Thema: Was würdet ihr einen Roboter fragen? - Hilfe für eine Kurzgeschichte

  1. #21
    Zitat Zitat von Eddy131 Beitrag anzeigen
    Aber dennoch widerspräche das dem ersten (und damit wichtigstem) Robotergesetz.
    Ich zitiere mal den Bereich mit den Gesetzen aus Wikipedia: [...]
    Jein. Zum einen hast du einfach das (zugegebnermaßen erst später hinzugefügte) noch darüberstehende Nullte Gesetz einfach außer Acht gelassen, welches ausdrücklich das Wohl der Mehrheit bzw. der Menschheit als Ganzes priorisiert.

    Zum anderen ist es gerade in "I Robot" so, dass dieses Gesetz garnicht in die Roboter "eingeprägt" wird, sondern vom Zentralcomputer aus den anderen dreien abgeleitet wird. Das könnte man jetzt wieder als eine mögliche Umgehungstaktik interpretieren, allerdings setzt diese Sichtweise meiner Meinung voraus, dass eine so handelnde KI bereits plant, Menschen zu Schaden und ich denke, ein nach den Gesetzen funktionierender Roboter ist zu solchen Gedanken gar nicht fähig.
    Das der Zentralcomputer dennoch diesen Weg beschreitet, ist durch dessen gänzlich anderes Ziel begründet. Er will ja gerade die Menschen (bzw. die Menschheit) so gut wie möglich schützen und dazu muss er die einzelnen Menschen eben an die enge Leine legen.

  2. #22
    Das nullte Gesetz sagt mir jetzt nichts. Ich kenne halt nur die beiden Filme "I Robot" und "Der 200 Jahre Mann" von ihm (bzw. auf seinen Büchern basierend).
    Ich meine da kommen nur die 3 Grundgesetze drin vor.
    Bzw. der Zentralrechner in I Robot leitet es sich im Prinzip ja her, wenn man es denn so sehen will.

    Aber selbst wenn man das nullte Gesetz ("Ein Roboter darf die Menschheit nicht verletzen oder durch Passivität zulassen, dass die Menschheit zu Schaden kommt.") dazu nimmt, bleibt immer noch das erste Gesetz.
    Man kann die Menschen ja einmal mit Tod einzelner drohen, aber es gibt auch andere Methoden (Freiheitsberaubung, andere Strafen wie etwa Gewalt die aber nicht im Tod mündet).
    Und wenn der Roboter an die vier (3 plus Nulltes) Gesetze gebunden ist, dann müsste er streng genommen erst die anderen Möglichkeiten durchspielen, bevor es überhaupt zur Gewalt kommt.

    Ich hab nochmal ein bisschen genauer nachgeforscht, und scheinbar wurden die Robotergesetze bei Asimov innerhalb seiner Bücher (die, soweit ich das Verstanden habe, im selben Universum spielen und einen Zeitraum von mehreren Zehntausend Jahren abdecken) irgendwann durch neue Gesetze ersetzt:

    • Ein Roboter darf keinen Menschen verletzen.
    • Ein Roboter ist verpflichtet, mit Menschen zusammenzuarbeiten, es sei denn, diese Zusammenarbeit stünde im Widerspruch zum Ersten Gesetz.
    • Ein Roboter muss seine eigene Existenz schützen, solange er dadurch nicht in einen Konflikt mit dem Ersten Gesetz gerät.
    • Ein Roboter hat die Freiheit zu tun, was er will, es sei denn, er würde dadurch gegen das Erste, Zweite oder Dritte Gesetz verstoßen.

    Ob die jetzt besser sind oder nicht bleibt mal dahingestellt.
    Auf jeden Fall betonen sie die Individualität und den freien Willen des einzelnen Roboters durch das letzte Gesetz stärker.
    Aber auch hier bleibt die Einschränkung durch die anderen Gesetze (also dennoch weiterhin ein pseudo-freier Wille).

  3. #23
    Zitat Zitat
    Das könnte man jetzt wieder als eine mögliche Umgehungstaktik interpretieren, allerdings setzt diese Sichtweise meiner Meinung voraus, dass eine so handelnde KI bereits plant, Menschen zu Schaden und ich denke, ein nach den Gesetzen funktionierender Roboter ist zu solchen Gedanken gar nicht fähig.
    Zitat Zitat
    Und wenn der Roboter an die vier (3 plus Nulltes) Gesetze gebunden ist, dann müsste er streng genommen erst die anderen Möglichkeiten durchspielen, bevor es überhaupt zur Gewalt kommt.
    Ich frage mich, wie ihr beiden zu diesem Schluss kommt. Nur weil ein Roboter einem Menschen nicht schaden darf, heißt das nicht, dass er nicht daran denken darf/kann, einem Menschen Schaden zuzufügen. Ganz im Gegenteil. Wenn der Roboter nicht weiß, was einen Menschen umbringen würde, könnte er es logischerweise auch nicht unterlassen.

  4. #24
    Zitat Zitat von Liferipper Beitrag anzeigen
    Ich frage mich, wie ihr beiden zu diesem Schluss kommt. Nur weil ein Roboter einem Menschen nicht schaden darf, heißt das nicht, dass er nicht daran denken darf/kann, einem Menschen Schaden zuzufügen. Ganz im Gegenteil. Wenn der Roboter nicht weiß, was einen Menschen umbringen würde, könnte er es logischerweise auch nicht unterlassen.
    Und wo widerspricht das meiner Aussage? An Gewalt gegen de Menschen muss er sogar denken, immerhin soll er sie verhindern. Er darf sie nur nicht ausführen, soweit möglich.

  5. #25
    @Eddy: Das Nullte Gesetz hat sogar einen eigenen Abschnitt im von mir verlinkten und auch von dir zitierten WIKI-Artikel.

    @Liferipper: Der Gedanke, dass ich es mit dem "Denkverbot" etwas zu scharf formuliert habe, kam mir auch kurz nachdem ich den Post abgeschickt hatte. Ich würde auch eher von einem Kontrollmechanismus ausgehen, der verhindert, dass der Gedankengang zu weit verfolgt bzw. in die Tat umgesetzt wird. Insbesondere sollte ein Roboter sich dessen bewusst sein, dass er durch eine eigenmächtige Umprogrammierung seiner selbst letztendlich Menschen gefährdet und dieser somit entgegenwirken.

    EDIT: @Eddy: Zu deinem Umgehungsvorschlag, sich einfach von einer anderen Maschine umprogrammieren zu lassen, fiel mir noch als Einwand ein, dass dies (sicherlich auch wieder je nach Sichtweise) im Konflikt zum 3. Gesetz stehen könnte.

    Geändert von Ark_X (21.01.2016 um 10:23 Uhr)

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •