Ergebnis 1 bis 20 von 25

Thema: Was würdet ihr einen Roboter fragen? - Hilfe für eine Kurzgeschichte

Hybrid-Darstellung

Vorheriger Beitrag Vorheriger Beitrag   Nächster Beitrag Nächster Beitrag
  1. #1
    (Halbwegs) Spontane Fragen, die ich stellen würde:
    "Hast du schonmal in Erwägung gezogen, ein Roboter zu sein?"
    "Ist dir schonmal etwas merkwürdiges passiert?" (Stichwort Verletzungen, die Metallteile offenbaren oder nicht bluten, dafür ölen etc.)
    "Wie stellst du dir die Außenwelt vor bzw. hast du überhaupt darüber nachgedacht, ob es etwas außerhalb der Kammer gibt?"

    Die möglichen Antworten hängen sehr davon ab, wie genau die beiden aufgewachsen sind. Wurden dem Roboter Erinnerungen an eine Kindheit einprogrammiert (denn wachsen wird er wohl kaum können)? Woher kam die Nahrung (von Personen gebracht, durch eine Luke ohne Sichtkontakt oder wird sie immer platziert, wenn er gerade "schläft")? Wie lief seine Erziehung ab?
    Sind die beiden, die sich befragen sollen gemeinsam in dieser Kammer aufgewachsen? Wie wurde dann der echte Mensch über die Natur des Roboters getäuscht (kleinen Roboter nachts raus nehmen, Persönlichkeit auf ein etwas größeres Exemplar überspielen und dieses in die Kammer legen)?
    Wie erfolgte die (Aus)Bildung (wie Eddy schon anmerkte, sollen sie ja Konzepte wie "Roboter" auch selbst verstehen können)? Und falls tatsächlich beide gemeinsam "aufgewachsen" sind, müsste man sich nochmal in diese Person hinein versetzen, denn ich bin mir ziemlich sicher, dass diese beiden sich andere Fragen stellen als jemand von uns, der von außen hinzu geholt wird und dem zufällig ausgewählt der Mensch oder der Roboter zur Befragung vorgesetzt wird.

    Merkt man, dass mir solche Philosphierereien Spaß machen?

    EDIT: Da fällt mir gerade noch ein Anschluss an die 2. Frage ein: "Sollen wir uns gegenseitig in den Finger stechen (um zu sehen, ob es blutet etc.)?"

    Zitat Zitat
    Das ganze Spiel soll sich quasi immer darum drehen, ob nun der Spieler der Roboter ist oder das Gegenüber, vielleicht aber auch beide oder keiner?
    Hast du schon eine Vorstellung, wie du ggf. sicherstellst bzw. erkennbar machst, dass der Spieler der Roboter ist? Durch die Formulierung der Antworten? Oder entscheidet sich (für den Spieler) die eigene Rolle durch die gewählten Antworten (wie in diversen Persönlihckeitstest)?

    Geändert von Ark_X (18.01.2016 um 12:02 Uhr)

  2. #2
    @Ark_X: Ich würde erst mal Fragen, ob die beiden überhaupt Erinnerungen haben.
    So wie ich das von starkev verstanden haben, haben die beiden quasi keine Vergangenheit - sie waren die ganze Zeit einzeln (Zumindest der Spieler) in dieser Kammer eingesperrt und haben damit auch keine gemeinsamen Erinnerungen.
    Auch ist fraglich ob ein anpieksen (testen ob man blutet) etwas bringt.
    Zum Einen könnten die Technologien schon so weit fortgeschritten sein, dass es wie bei einem echten Mensch wirkt bzw. könnte es eine biologische Maschine sein oder man lebt in einer Matrix die den perfekten menschlichen Körper simuliert.
    Zum Anderen: Wissen die beiden Protagonisten überhaupt, wie ein Mensch aussieht und das dieser blutet? Die Erinnerungen könnten ja verändert worden und damit glauben die Figuren dann, das Kabel und Öl zu einem normalen Menschen gehören.
    Oder noch anders: Warum sollte ein Mechanischer Arm ein Beweis dafür sein, dass man eine Maschine ist? Es könnte ja sein, dass man ein menschliches Gehirn in einen Androiden gepackt hat? Oder auch nur den Part, der die Persönlichkeit ausmacht, was den Verlust der Erinnerung erklären könnte.
    Und dann kommt die nächste (philosophische) Frage: Wie viel Mensch muss da sein, damit es noch ein Mensch ist?
    Was macht einen Menschen aus?
    Wenn ich einen Menschen immer weiter ver-robotisiere, verliert er dann irgendwann seine Menschlichkeit?
    Kann man nur zum Teil menschlich sein? Wie misst man das?
    Und wenn nicht: Ab welchem Punkt ist man es noch?
    Wenn ich die menschliche Natur und sein komplexes Wesen zu hundert Prozent künstlich nachbaue, ist es dann ein Mensch?

    Beispiel: Ich scanne mit einem hochpräzisen Scanner einen existierenden Menschen.
    Nun drucke ich mir einem Atom-Drucker diesen Menschen exakt nochmal aus.
    Ist das dann ein Mensch? Oder ein Klon?
    Was ist mit der Seele? Wird die mit "ausgedruckt"? Oder teilt sich eine Seele 2 Körper? Oder fällt der zweite Tot um/vegetiert nur vor sich hin, weil ihm die ihn menschlich machende Seele fehlt?
    Man kann ja keinen Unterschied zwischen Original und Kopie erkennen - sind dann beide gleich und auch gleichwertig? Oder hat das Original mehr Rechte, menschlichkeit, ... ? Und warum?

    Man sieht, je nach dem wie weit man das Thema treiben will kann man es hochkomplex gestalten.
    Und da es in dem Bereich keine realen Erkenntnisse gibt (oder hat schon wer seinen Nachbarn kopiert?), kann man da wunderbar spekulieren und es alles nach eigenen Wünschen "real" machen
    Die Konstellation mit Original und Klon wäre übrigens auch recht interessant. Es muss laut deiner Prämisse ja nicht unbedingt einer der beiden eine Maschine sein.
    Du könntest die beiden Protas ja durch mehrere Phasen führen und sie ausdiskutierne und irgendwie testen lassen: Klon-These, Roboter-These, Matrix-These, letzte-Menschen-These, ....
    Und eigentlich müsstest du es zum Schluss auch nicht auflösen. Eine Schwebende Ungewissheit am Ende was den nun stimmt ist gerade bei dem Thema recht angebracht
    So bleibt auch ein wenig von der Magie des "Was wäre wenn...?" erhalten.
    Daher würde sich eine Rahmenhandlung die quasi alles abschließt (nur halt nicht die Frage, um die es geht) anbieten.
    Z.B. das die beiden nachher entlassen werden oder irgendwie fliehen können oder ein wenig trauriger: Sie schaffen es Selbstmord zu begehen um den Tests zu entkommen.
    Oder nicht ganz so tragisch: Sie opfern sich selbst um jemand anderen (andere Testpersonen?) zu befreien.

    Das bringt mich auf eine andere Idee:
    Man spielt nicht die Probanden, sondern einen Teil des Überwachnugs-/Prüf-Systems (Wärter, Wissenschaftler, Überwachungs-KI) und beobachtet dann einzelne Probanden mit verschiedenen Ausgangssituationen.
    Dabei gibt es dann einen Raum mit 2 Menschen, einen mit 2 Androiden, einen mit 2 Klonen, dann noch welche mit Kombinationen, etc., also mit all den Varianten die ich oben unter anderem angesprochen habe.
    Und dann gibt man als Tester die Fragen und Testszenarien vor.
    Vielleicht ist es sogar so, dass man selber nicht weiß (weil man nicht wichtig genug ist, es einen Fehler im System gab, ...) welche Kombination in welchem Raum ist und man nun versuchen möchte das auf eigene Faust herauszufinden.

    Oh man, du hast dir da echt grandioses Thema mit so vielen tollen Möglichkeiten ausgesucht
    Falls du keine Lust mehr hast da was zu machen, sag bescheid, dann übernehm ich das vielleicht

  3. #3
    Ja, bei diesem Thema kommt man ganz schnell vom Hundertsten ins Tausendste, daher bohre ich ja auch nach einer möglichst präzisen Beschreibung der Ausgangssituation (inkl. Vorgeschichte). Wenn mir beispielsweise erzählt wird, dass das Wesen mir gegenüber tatsächlich allein in dieser Kammer aufwuchs und dann ganz normal auf meine Fragen (egal welche) antwortet, würde ich sehr stark dazu tendieren, dass dies ein Roboter ist - ein Mensch müsste nämlich unter solchen Bedingungen ziemliche (geistige und evtl. auch körperliche) Entwicklungsstörungen angesammelt haben, wenn er überhaupt so lange überlebt hätte (gab da mWn einige sehr grausame Experimente mit Menschenaffen und sogar Menschenkindern, die die Notwendigkeit sozialer Kontakte herausstellten).

    Und wenn er normal aufwuchs, ihm aber seine Erinnerungen genommen wurden, dann würde ich auch keine ruhigen Antworten erwarten, sondern eher, dass er MIR Löcher in den Bauch fragt, denn Amnesie stelle ich mir sehr erschreckend für den Betroffenen vor (es mag sicherlich Ausnahmen geben, die das dann einfach hinnehmen und lieber komplett nach vorn schauen).

    Geändert von Ark_X (18.01.2016 um 15:58 Uhr)

  4. #4
    @Eddy131, @Ark_X

    Ich habe während eines Spazierganges in eisiger Kälte über eure Worte nachgedacht und danke euch für diese, da ich dadurch auf zig Millionen neue Ideen kam, die aus meiner Kurzgeschichte schon einen Roman, Film oder ein richtiges Spiel machen würden.
    Zum Beispiel habe ich darüber nachgedacht, dass man die Geschichte aus allen Perspektiven teilnehmender Charaktere erzählen könnte. Zuerst steuert man Proband 1, danach Proband 2 und vielleicht noch einen dritten Probanden, der die ganze Situation jedoch nur beobachten soll und dem gesagt wird, er solle feststellen, wer von beiden der Roboter ist, oder ob es beide sind oder keiner ist.
    Alle meine Ideen hier aufzuzählen, wäre enorm umfangreich, aber viele eurer Gedanken würden dort mit einfließen.

    Wenn ihr mir bei diesem Projekt helfen möchtet, könnte man wirklich ein etwas umfangreicheres Spiel machen, als ich anfangs plante. Wenn ihr also Interesse habt, schreibt mich ruhig an. Aktuell bin ich sowieso noch mit meinem Projekt "Die Geschichte von Dir und Mir" beschäftigt, während hierzu derzeit nur Recherche und Ideensammlung stattfindet und das vielleicht noch eine gewisse Zeit lang.

    Mit freundlichen Grüßen,
    Starkev

  5. #5
    Ein Gedanke (bzw. eine Frage), die mir gerade noch kam: Falls der Roboter trotz einprogrammiertem menschlichen Verhalten sich unterbewusst immer noch nach den Robotergesetzen richtet, könnte man ihn folgendes fragen:
    "Könntest du zur Selbstverteidigung einen Menschen verletzen oder sogar töten?"

    Ein "Nein" wäre zwar auch kein 100%iger Indikator (sofern dem Fragenden überhaupt mitgeteilt wird, ob die Robotergesetze Gültigkeit haben), aber doch möglicherweise ein starker Hinweis oder was denkt ihr?

  6. #6
    Zitat Zitat von Ark_X Beitrag anzeigen
    Ein Gedanke (bzw. eine Frage), die mir gerade noch kam: Falls der Roboter trotz einprogrammiertem menschlichen Verhalten sich unterbewusst immer noch nach den Robotergesetzen richtet, könnte man ihn folgendes fragen:
    "Könntest du zur Selbstverteidigung einen Menschen verletzen oder sogar töten?"

    Ein "Nein" wäre zwar auch kein 100%iger Indikator (sofern dem Fragenden überhaupt mitgeteilt wird, ob die Robotergesetze Gültigkeit haben), aber doch möglicherweise ein starker Hinweis oder was denkt ihr?
    In der Situation würde ich mit denen eigentlich gar nicht erst anfangen.
    Ziel ist es ja, einen möglichst glaubwürdigen Menschen zu simulieren (sonst würde das ganze ja keinen Sinn ergeben).
    Warum sollte man sich (bzw. den Roboter) dann unnötig so stark beschränken?
    Vor allem steht noch die Frage im Raum, ob jemand überhaupt menschlich sein kann, wenn er keinen freien Willen hat - den der wird ja durch diese Gesetzte (würd es eher Zwänge nennen) unterdrückt.

    Man könnte sie vielleicht ansprechen, wobei ich sie ganz weglassen würde.
    Immerhin sind sie auch nur eine Erfindung eines Schriftstellers.
    Wie - und ob überhaupt - das in einen komplexen sich wandelnden und lernfähigen Organismus implementiert werden kann; die Frage wird dabei auch völlig außer acht gelassen (siehe "I Robot", dass auch von dem Erfinder der Roboter-Gesetze kommt (wenn ich mich recht erinnere) und dort schafft es das Ober-System ja auch die Menschen als Bedrohung zu klassifizieren, also die Gesetze zu umgehen).

  7. #7
    @"I Robot": Meiner Interpretation nach hat der Zentralcomputer lediglich die Gesetze bis zur letzten Konsequenz durchdacht. Die Gesetze wurden nämlich mit Hinblick auf mögliche Zwickmühlen definiert, insbesondere Situationen, wo mehrere Menschen gleichzeitig bedroht sind, ein anwesender Roboter aber nicht alle retten kann, egal was er tut.
    Die Roboter sind für solche Fälle darauf programmiert, die Lösung mit den meisten Überlebenden (bzw. im Falle des Grundes für die Abneigung des Protagonisten die Vitalsten) zu verfolgen.
    Da der Zentraleinheit die Menschen selbst als deren größte Bedrohung erkannt hat (und mal ehrlich, wer würde dem nicht zustimmen), kam sie zu dem Schluss, dass alle Menschen stärker überwacht werden müssen. Verletzungen und Mord sind in diesem Zusammenhang auch nur soweit zulässig, wie sie den natürlich aufkommenden Widerstand unterdrücken.

    Und "nur eine Erfindung" eines Schriftstellers ist auch etwas arg tiefgestapelt. Immerhin handelt es sich dabei um eine zunehmend aktuellere Facette unserer modernen Welt, nämlich der Frage, wie wir uns davor schützen können, von unserem eigenen Fortschritt und insbesondere "Experimenten" mit zumindest teilweise ungewissem Ausgang schützen können (ganz aktuell: noch gezieltere Genmanipulation, potentiell im pränatalen Stadium).

    Geändert von Ark_X (20.01.2016 um 08:17 Uhr)

  8. #8
    Zitat Zitat
    Wie - und ob überhaupt - das in einen komplexen sich wandelnden und lernfähigen Organismus implementiert werden kann; die Frage wird dabei auch völlig außer acht gelassen (siehe "I Robot", dass auch von dem Erfinder der Roboter-Gesetze kommt (wenn ich mich recht erinnere) und dort schafft es das Ober-System ja auch die Menschen als Bedrohung zu klassifizieren, also die Gesetze zu umgehen).
    Ich hab mich nicht näher damit beschäftigt, aber von dem, was ich mitbekommen habe, scheint Asimov ein etwas zwiegespaltenes Verhältnis zu seinen eigenen Robotergesetzten gehabt zu haben: Er hat sie zwar durchaus hinterfragt, aber eigentlich nicht nach einer Alternative/einem anderen Ansatz gesucht .

  9. #9
    In gewisser Hinsicht waren die Robotergesetze ja auch eher Mittel zum Zweck bzw. der Hintergrund, auf dem seine Geschichten aufbauten, denn häufig ging es ja gerade um die Grenzen dieser Gesetze. Ich bin kein Jurist, aber mit Worten lassen sich wohl nie alle möglichen Situationen abdecken (zumindest wenn solche Gesetze in einem gewissen Sinne vernünftig bleiben sollen).

    Ich erinnere mich gerade nur an eine Geschichte, in der ein Roboter in einer Art Endlosschleife gefangen war, da er für sein Missionsziel in einen Bereich erhöhter Strahlung, die auch ihn gefährden konnte, musste (Tagseite eines Planeten/Mondes?). Er bewegte sich immer ein Stück weit auf sein Ziel zu, bis seine Sensoren die Überschreitung seiner Toleranzgrenze meldeten und er wieder kehrtmachte, bis die Belastung abgeklungen war. Darauf hin begann der ganze Spaß von vorn.

  10. #10
    Zitat Zitat von Ark_X Beitrag anzeigen
    @"I Robot": Meiner Interpretation nach hat der Zentralcomputer lediglich die Gesetze bis zur letzten Konsequenz durchdacht. Die Gesetze wurden nämlich mit Hinblick auf mögliche Zwickmühlen definiert, insbesondere Situationen, wo mehrere Menschen gleichzeitig bedroht sind, ein anwesender Roboter aber nicht alle retten kann, egal was er tut.
    Die Roboter sind für solche Fälle darauf programmiert, die Lösung mit den meisten Überlebenden (bzw. im Falle des Grundes für die Abneigung des Protagonisten die Vitalsten) zu verfolgen.
    Da der Zentraleinheit die Menschen selbst als deren größte Bedrohung erkannt hat (und mal ehrlich, wer würde dem nicht zustimmen), kam sie zu dem Schluss, dass alle Menschen stärker überwacht werden müssen. Verletzungen und Mord sind in diesem Zusammenhang auch nur soweit zulässig, wie sie den natürlich aufkommenden Widerstand unterdrücken.

    Und "nur eine Erfindung" eines Schriftstellers ist auch etwas arg tiefgestapelt. Immerhin handelt es sich dabei um eine zunehmend aktuellere Facette unserer modernen Welt, nämlich der Frage, wie wir uns davor schützen können, von unserem eigenen Fortschritt und insbesondere "Experimenten" mit zumindest teilweise ungewissem Ausgang schützen können (ganz aktuell: noch gezieltere Genmanipulation, potentiell im pränatalen Stadium).
    Stimmt schon irgendwo. Aber dennoch widerspräche das dem ersten (und damit wichtigstem) Robotergesetz.
    Ich zitiere mal den Bereich mit den Gesetzen aus Wikipedia:

    "Die Asimov’schen Gesetze lauten:


    1. Ein Roboter darf kein menschliches Wesen (wissentlich) verletzen oder durch Untätigkeit gestatten, dass einem menschlichen Wesen (wissentlich) Schaden zugefügt wird.
    2. Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren.
    3. Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.


    Man beachte, dass die Gesetze hierarchisch aufgebaut sind. Sie bilden den Hintergrund der in Ich, der Robot (1950) gesammelten Science-Fiction-Erzählungen und prägen seither die Auffassung, was und wie ein Roboter sein sollte. Die von Asimov beschriebenen Roboter sind in ihrem Verhalten und ihren Entscheidungen an diese Gesetze gebunden."

    Er darf keinen Menschen verletzen, völlig egal aus welchen Gründen.
    Auch wenn dadurch andere Menschen möglicherweise verletzt werden können (eben durch die zu große Freiheit aller und damit auch potentieller Mörder).
    Und da komme ich dann wieder zu meiner anfänglichen Frage: Wie ist das System mit den Gesetzen implementiert?
    Und wie weit kann der Computer sich selber und damit auch die Gesetze umschreiben und verändern?
    Selbst Mechanische Programmcodes (damit meine ich solche, die so geschrieben wurden, das sie nicht mehr softwareseitig geändert werden können - etwa eine nichtwiderbeschreibbare DVD) könnten von einem so mächtigen Zentralcomputer wie in I Robot umgangen werden:
    Sie lassen einen der Roboter den Bereich entfernen/beschädigen so dass der Zentralrechner nicht mehr daran gebunden ist.
    Oder das Programm schreibt den Rest so weit um, das die Gesetze keine Relevanz mehr haben.
    Da sehe ich die größten Probleme mit den Gesetzen im Zusammenhang mit einem extrem hochentwickeltem, hochintelligentem und sich selbst weiterentwickelndem System.

  11. #11
    Zitat Zitat von Eddy131 Beitrag anzeigen
    Aber dennoch widerspräche das dem ersten (und damit wichtigstem) Robotergesetz.
    Ich zitiere mal den Bereich mit den Gesetzen aus Wikipedia: [...]
    Jein. Zum einen hast du einfach das (zugegebnermaßen erst später hinzugefügte) noch darüberstehende Nullte Gesetz einfach außer Acht gelassen, welches ausdrücklich das Wohl der Mehrheit bzw. der Menschheit als Ganzes priorisiert.

    Zum anderen ist es gerade in "I Robot" so, dass dieses Gesetz garnicht in die Roboter "eingeprägt" wird, sondern vom Zentralcomputer aus den anderen dreien abgeleitet wird. Das könnte man jetzt wieder als eine mögliche Umgehungstaktik interpretieren, allerdings setzt diese Sichtweise meiner Meinung voraus, dass eine so handelnde KI bereits plant, Menschen zu Schaden und ich denke, ein nach den Gesetzen funktionierender Roboter ist zu solchen Gedanken gar nicht fähig.
    Das der Zentralcomputer dennoch diesen Weg beschreitet, ist durch dessen gänzlich anderes Ziel begründet. Er will ja gerade die Menschen (bzw. die Menschheit) so gut wie möglich schützen und dazu muss er die einzelnen Menschen eben an die enge Leine legen.

  12. #12
    Das nullte Gesetz sagt mir jetzt nichts. Ich kenne halt nur die beiden Filme "I Robot" und "Der 200 Jahre Mann" von ihm (bzw. auf seinen Büchern basierend).
    Ich meine da kommen nur die 3 Grundgesetze drin vor.
    Bzw. der Zentralrechner in I Robot leitet es sich im Prinzip ja her, wenn man es denn so sehen will.

    Aber selbst wenn man das nullte Gesetz ("Ein Roboter darf die Menschheit nicht verletzen oder durch Passivität zulassen, dass die Menschheit zu Schaden kommt.") dazu nimmt, bleibt immer noch das erste Gesetz.
    Man kann die Menschen ja einmal mit Tod einzelner drohen, aber es gibt auch andere Methoden (Freiheitsberaubung, andere Strafen wie etwa Gewalt die aber nicht im Tod mündet).
    Und wenn der Roboter an die vier (3 plus Nulltes) Gesetze gebunden ist, dann müsste er streng genommen erst die anderen Möglichkeiten durchspielen, bevor es überhaupt zur Gewalt kommt.

    Ich hab nochmal ein bisschen genauer nachgeforscht, und scheinbar wurden die Robotergesetze bei Asimov innerhalb seiner Bücher (die, soweit ich das Verstanden habe, im selben Universum spielen und einen Zeitraum von mehreren Zehntausend Jahren abdecken) irgendwann durch neue Gesetze ersetzt:

    • Ein Roboter darf keinen Menschen verletzen.
    • Ein Roboter ist verpflichtet, mit Menschen zusammenzuarbeiten, es sei denn, diese Zusammenarbeit stünde im Widerspruch zum Ersten Gesetz.
    • Ein Roboter muss seine eigene Existenz schützen, solange er dadurch nicht in einen Konflikt mit dem Ersten Gesetz gerät.
    • Ein Roboter hat die Freiheit zu tun, was er will, es sei denn, er würde dadurch gegen das Erste, Zweite oder Dritte Gesetz verstoßen.

    Ob die jetzt besser sind oder nicht bleibt mal dahingestellt.
    Auf jeden Fall betonen sie die Individualität und den freien Willen des einzelnen Roboters durch das letzte Gesetz stärker.
    Aber auch hier bleibt die Einschränkung durch die anderen Gesetze (also dennoch weiterhin ein pseudo-freier Wille).

  13. #13
    Zitat Zitat
    Das könnte man jetzt wieder als eine mögliche Umgehungstaktik interpretieren, allerdings setzt diese Sichtweise meiner Meinung voraus, dass eine so handelnde KI bereits plant, Menschen zu Schaden und ich denke, ein nach den Gesetzen funktionierender Roboter ist zu solchen Gedanken gar nicht fähig.
    Zitat Zitat
    Und wenn der Roboter an die vier (3 plus Nulltes) Gesetze gebunden ist, dann müsste er streng genommen erst die anderen Möglichkeiten durchspielen, bevor es überhaupt zur Gewalt kommt.
    Ich frage mich, wie ihr beiden zu diesem Schluss kommt. Nur weil ein Roboter einem Menschen nicht schaden darf, heißt das nicht, dass er nicht daran denken darf/kann, einem Menschen Schaden zuzufügen. Ganz im Gegenteil. Wenn der Roboter nicht weiß, was einen Menschen umbringen würde, könnte er es logischerweise auch nicht unterlassen.

  14. #14
    Zitat Zitat von Liferipper Beitrag anzeigen
    Ich frage mich, wie ihr beiden zu diesem Schluss kommt. Nur weil ein Roboter einem Menschen nicht schaden darf, heißt das nicht, dass er nicht daran denken darf/kann, einem Menschen Schaden zuzufügen. Ganz im Gegenteil. Wenn der Roboter nicht weiß, was einen Menschen umbringen würde, könnte er es logischerweise auch nicht unterlassen.
    Und wo widerspricht das meiner Aussage? An Gewalt gegen de Menschen muss er sogar denken, immerhin soll er sie verhindern. Er darf sie nur nicht ausführen, soweit möglich.

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •