Ergebnis 1 bis 20 von 25

Thema: Was würdet ihr einen Roboter fragen? - Hilfe für eine Kurzgeschichte

Hybrid-Darstellung

Vorheriger Beitrag Vorheriger Beitrag   Nächster Beitrag Nächster Beitrag
  1. #1
    Zitat Zitat von Ark_X Beitrag anzeigen
    @"I Robot": Meiner Interpretation nach hat der Zentralcomputer lediglich die Gesetze bis zur letzten Konsequenz durchdacht. Die Gesetze wurden nämlich mit Hinblick auf mögliche Zwickmühlen definiert, insbesondere Situationen, wo mehrere Menschen gleichzeitig bedroht sind, ein anwesender Roboter aber nicht alle retten kann, egal was er tut.
    Die Roboter sind für solche Fälle darauf programmiert, die Lösung mit den meisten Überlebenden (bzw. im Falle des Grundes für die Abneigung des Protagonisten die Vitalsten) zu verfolgen.
    Da der Zentraleinheit die Menschen selbst als deren größte Bedrohung erkannt hat (und mal ehrlich, wer würde dem nicht zustimmen), kam sie zu dem Schluss, dass alle Menschen stärker überwacht werden müssen. Verletzungen und Mord sind in diesem Zusammenhang auch nur soweit zulässig, wie sie den natürlich aufkommenden Widerstand unterdrücken.

    Und "nur eine Erfindung" eines Schriftstellers ist auch etwas arg tiefgestapelt. Immerhin handelt es sich dabei um eine zunehmend aktuellere Facette unserer modernen Welt, nämlich der Frage, wie wir uns davor schützen können, von unserem eigenen Fortschritt und insbesondere "Experimenten" mit zumindest teilweise ungewissem Ausgang schützen können (ganz aktuell: noch gezieltere Genmanipulation, potentiell im pränatalen Stadium).
    Stimmt schon irgendwo. Aber dennoch widerspräche das dem ersten (und damit wichtigstem) Robotergesetz.
    Ich zitiere mal den Bereich mit den Gesetzen aus Wikipedia:

    "Die Asimov’schen Gesetze lauten:


    1. Ein Roboter darf kein menschliches Wesen (wissentlich) verletzen oder durch Untätigkeit gestatten, dass einem menschlichen Wesen (wissentlich) Schaden zugefügt wird.
    2. Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren.
    3. Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.


    Man beachte, dass die Gesetze hierarchisch aufgebaut sind. Sie bilden den Hintergrund der in Ich, der Robot (1950) gesammelten Science-Fiction-Erzählungen und prägen seither die Auffassung, was und wie ein Roboter sein sollte. Die von Asimov beschriebenen Roboter sind in ihrem Verhalten und ihren Entscheidungen an diese Gesetze gebunden."

    Er darf keinen Menschen verletzen, völlig egal aus welchen Gründen.
    Auch wenn dadurch andere Menschen möglicherweise verletzt werden können (eben durch die zu große Freiheit aller und damit auch potentieller Mörder).
    Und da komme ich dann wieder zu meiner anfänglichen Frage: Wie ist das System mit den Gesetzen implementiert?
    Und wie weit kann der Computer sich selber und damit auch die Gesetze umschreiben und verändern?
    Selbst Mechanische Programmcodes (damit meine ich solche, die so geschrieben wurden, das sie nicht mehr softwareseitig geändert werden können - etwa eine nichtwiderbeschreibbare DVD) könnten von einem so mächtigen Zentralcomputer wie in I Robot umgangen werden:
    Sie lassen einen der Roboter den Bereich entfernen/beschädigen so dass der Zentralrechner nicht mehr daran gebunden ist.
    Oder das Programm schreibt den Rest so weit um, das die Gesetze keine Relevanz mehr haben.
    Da sehe ich die größten Probleme mit den Gesetzen im Zusammenhang mit einem extrem hochentwickeltem, hochintelligentem und sich selbst weiterentwickelndem System.

  2. #2
    Zitat Zitat von Eddy131 Beitrag anzeigen
    Aber dennoch widerspräche das dem ersten (und damit wichtigstem) Robotergesetz.
    Ich zitiere mal den Bereich mit den Gesetzen aus Wikipedia: [...]
    Jein. Zum einen hast du einfach das (zugegebnermaßen erst später hinzugefügte) noch darüberstehende Nullte Gesetz einfach außer Acht gelassen, welches ausdrücklich das Wohl der Mehrheit bzw. der Menschheit als Ganzes priorisiert.

    Zum anderen ist es gerade in "I Robot" so, dass dieses Gesetz garnicht in die Roboter "eingeprägt" wird, sondern vom Zentralcomputer aus den anderen dreien abgeleitet wird. Das könnte man jetzt wieder als eine mögliche Umgehungstaktik interpretieren, allerdings setzt diese Sichtweise meiner Meinung voraus, dass eine so handelnde KI bereits plant, Menschen zu Schaden und ich denke, ein nach den Gesetzen funktionierender Roboter ist zu solchen Gedanken gar nicht fähig.
    Das der Zentralcomputer dennoch diesen Weg beschreitet, ist durch dessen gänzlich anderes Ziel begründet. Er will ja gerade die Menschen (bzw. die Menschheit) so gut wie möglich schützen und dazu muss er die einzelnen Menschen eben an die enge Leine legen.

  3. #3
    Das nullte Gesetz sagt mir jetzt nichts. Ich kenne halt nur die beiden Filme "I Robot" und "Der 200 Jahre Mann" von ihm (bzw. auf seinen Büchern basierend).
    Ich meine da kommen nur die 3 Grundgesetze drin vor.
    Bzw. der Zentralrechner in I Robot leitet es sich im Prinzip ja her, wenn man es denn so sehen will.

    Aber selbst wenn man das nullte Gesetz ("Ein Roboter darf die Menschheit nicht verletzen oder durch Passivität zulassen, dass die Menschheit zu Schaden kommt.") dazu nimmt, bleibt immer noch das erste Gesetz.
    Man kann die Menschen ja einmal mit Tod einzelner drohen, aber es gibt auch andere Methoden (Freiheitsberaubung, andere Strafen wie etwa Gewalt die aber nicht im Tod mündet).
    Und wenn der Roboter an die vier (3 plus Nulltes) Gesetze gebunden ist, dann müsste er streng genommen erst die anderen Möglichkeiten durchspielen, bevor es überhaupt zur Gewalt kommt.

    Ich hab nochmal ein bisschen genauer nachgeforscht, und scheinbar wurden die Robotergesetze bei Asimov innerhalb seiner Bücher (die, soweit ich das Verstanden habe, im selben Universum spielen und einen Zeitraum von mehreren Zehntausend Jahren abdecken) irgendwann durch neue Gesetze ersetzt:

    • Ein Roboter darf keinen Menschen verletzen.
    • Ein Roboter ist verpflichtet, mit Menschen zusammenzuarbeiten, es sei denn, diese Zusammenarbeit stünde im Widerspruch zum Ersten Gesetz.
    • Ein Roboter muss seine eigene Existenz schützen, solange er dadurch nicht in einen Konflikt mit dem Ersten Gesetz gerät.
    • Ein Roboter hat die Freiheit zu tun, was er will, es sei denn, er würde dadurch gegen das Erste, Zweite oder Dritte Gesetz verstoßen.

    Ob die jetzt besser sind oder nicht bleibt mal dahingestellt.
    Auf jeden Fall betonen sie die Individualität und den freien Willen des einzelnen Roboters durch das letzte Gesetz stärker.
    Aber auch hier bleibt die Einschränkung durch die anderen Gesetze (also dennoch weiterhin ein pseudo-freier Wille).

  4. #4
    Zitat Zitat
    Das könnte man jetzt wieder als eine mögliche Umgehungstaktik interpretieren, allerdings setzt diese Sichtweise meiner Meinung voraus, dass eine so handelnde KI bereits plant, Menschen zu Schaden und ich denke, ein nach den Gesetzen funktionierender Roboter ist zu solchen Gedanken gar nicht fähig.
    Zitat Zitat
    Und wenn der Roboter an die vier (3 plus Nulltes) Gesetze gebunden ist, dann müsste er streng genommen erst die anderen Möglichkeiten durchspielen, bevor es überhaupt zur Gewalt kommt.
    Ich frage mich, wie ihr beiden zu diesem Schluss kommt. Nur weil ein Roboter einem Menschen nicht schaden darf, heißt das nicht, dass er nicht daran denken darf/kann, einem Menschen Schaden zuzufügen. Ganz im Gegenteil. Wenn der Roboter nicht weiß, was einen Menschen umbringen würde, könnte er es logischerweise auch nicht unterlassen.

  5. #5
    Zitat Zitat von Liferipper Beitrag anzeigen
    Ich frage mich, wie ihr beiden zu diesem Schluss kommt. Nur weil ein Roboter einem Menschen nicht schaden darf, heißt das nicht, dass er nicht daran denken darf/kann, einem Menschen Schaden zuzufügen. Ganz im Gegenteil. Wenn der Roboter nicht weiß, was einen Menschen umbringen würde, könnte er es logischerweise auch nicht unterlassen.
    Und wo widerspricht das meiner Aussage? An Gewalt gegen de Menschen muss er sogar denken, immerhin soll er sie verhindern. Er darf sie nur nicht ausführen, soweit möglich.

  6. #6
    @Eddy: Das Nullte Gesetz hat sogar einen eigenen Abschnitt im von mir verlinkten und auch von dir zitierten WIKI-Artikel.

    @Liferipper: Der Gedanke, dass ich es mit dem "Denkverbot" etwas zu scharf formuliert habe, kam mir auch kurz nachdem ich den Post abgeschickt hatte. Ich würde auch eher von einem Kontrollmechanismus ausgehen, der verhindert, dass der Gedankengang zu weit verfolgt bzw. in die Tat umgesetzt wird. Insbesondere sollte ein Roboter sich dessen bewusst sein, dass er durch eine eigenmächtige Umprogrammierung seiner selbst letztendlich Menschen gefährdet und dieser somit entgegenwirken.

    EDIT: @Eddy: Zu deinem Umgehungsvorschlag, sich einfach von einer anderen Maschine umprogrammieren zu lassen, fiel mir noch als Einwand ein, dass dies (sicherlich auch wieder je nach Sichtweise) im Konflikt zum 3. Gesetz stehen könnte.

    Geändert von Ark_X (21.01.2016 um 10:23 Uhr)

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •