PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Was würdet ihr einen Roboter fragen? - Hilfe für eine Kurzgeschichte



starkev
16.01.2016, 20:42
Hallo liebes Forum,

Ich eröffne dieses Thema, da ich an einem winzig kleinen RPG Maker Projekt arbeiten möchte, in welchem es um die Liebe zwischen Mensch und Maschine gehen soll und ich hoffe, dass ihr mir dabei helfen könnt.
Doch wie, fragt ihr euch? Wir machen ein kleines Gedankenspiel daraus:
Die Überschrift verrät eigentlich schon, was ich möchte - Ihr sollt Fragen hierein schreiben, die ihr einen Roboter fragen würdet, solltet ihr einem gegenüber gesetzt werden. Dieser Roboter soll sich so menschlich wie möglich verhalten, wurde seine ganze Existenz über aber in einem einzigen Raum eingesperrt, daher solltet ihr Fragen stellen, die die Menschlichkeit dieses Roboters infrage stellen. Dazu würde es mich aber auch interessieren, was ihr denkt, was ein Roboter auf einige Fragen antworten würde. Also stellt einer ein paar Fragen, egal wie viele, und andere versuchen diese zu beantworten, können aber auch wieder Fragen stellen.

Zur besseren Verständlichkeit hier ein kleines Beispiel:
Person A schreibt: "Wo würdest du gerne mal sein?"
Person B schreibt darauf: "Auf die Frage "Wo würdest du gerne mal sein?", würde ein Roboter antworten: "Überall, bloß nicht hier eingesperrt."
Meine Frage wäre: "Was ist dein Lieblingsessen?""

Ich hoffe, das war jetzt verständlich genug.
Genauso hoffe ich, dass ihr mir bei meiner kleinen Recherche helfen könnt, sodass dieses kleine Spiel ein Gutes werden kann.

Das war alles.
Mit freundlichen Grüßen,
Starkev


Halt, war doch nicht alles. Ich möchte euch noch ein paar Fragen vorlegen, deren Antworten mich interessieren würden:
A: "Was ist der Sinn deines Lebens?"
B: "Willst du leben?"
Vergesst nicht, der Roboter wurde seine ganze Existenz über in einem Raum eingesperrt, daher sollten Fragen und Antworten sich auch auf diese Prämisse beziehen.

Jetzt war das alles.
Mit erneut freundlichen Grüßen,
Starkev

Klunky
16.01.2016, 21:08
Ist jetzt vielleicht nicht ganz das was du zu hören erwartest. (habe nämlich kein Interesse an diesem Rollenspiel) aber was dieses Thema betrifft kann ich dir das Spiel "The Talos Principle" empfehlen, was sich ebenfalls sehr stark mit dem Thema "künstliche Intelligenz" und den Unterschied von Mensch zu Maschine beschäftigt. Auch die Frage ob man Robotern jemals das lieben beibringen kann findet dort eine Passage. Eine unglaublich interessante Thematik in der man sich Stück für Stück reinlesen kann. Das könnte vielleicht eine gute Inspirationsquelle sein um damit anzufangen.

Wonderwanda
16.01.2016, 22:24
Die Überschrift verrät eigentlich schon, was ich möchte - Ihr sollt Fragen hierein schreiben, die ihr einen Roboter fragen würdet, solltet ihr einem gegenüber gesetzt werden. Dieser Roboter soll sich so menschlich wie möglich verhalten, wurde seine ganze Existenz über aber in einem einzigen Raum eingesperrt, daher solltet ihr Fragen stellen, die die Menschlichkeit dieses Roboters infrage stellen.

Du meinst die Grundlage des Turing-Tests (https://de.wikipedia.org/wiki/Turing-Test)? Dazu gibt es einiges an Literatur, sowohl aus technischer als auch ethischer Sicht, wenn auch hauptsächlich auf Englisch. Bekannte Beispiele für Chatbots auf Basis des Tests sind ELIZA (https://en.wikipedia.org/wiki/ELIZA) und Jabberwacky (http://www.jabberwacky.com/), auch wenn sie nicht wirklich erfolgreich sind.

Aber auf der Schiene lässt sich bestimmt einiges finden.

starkev
16.01.2016, 23:55
Ich kenne den Turing-Test und zahlreiche Dinge dazu, doch mich würde es interessieren, was IHR denkt. Ihr, als Entwickler und Geschichtenschreiber, nicht als Wissenschaftler oder sonst irgendwas. :)
(Natürlich kenne ich auch genug fiktive Geschichten, die auf der Grundlage des Turing-Tests basieren, aber wie gesagt, ich will eure Meinungen.)

real Troll
17.01.2016, 11:15
Warum hast du nie neu tapeziert?
Wieso riecht es hier so streng?
Das ist also die Art, in der du deinen Besuch empfängst?

Ihm Vorwürfe machen, ihm Verantwortung für sein Zwangsdomizil zuschreiben und gucken, inwieweit er Knechtschaft, Grenzen, Schaffung eigener Freiräume reflektiert und welche Vorstellungen er über die Möglichkeiten, sich Freiheiten, die ihm nicht automatisch serviert werden, portionsweise zu nehmen, entwickeln kann.

Eddy131
17.01.2016, 13:10
Bei den Fragen wäre noch wichtig zu wissen, wie der Roboter reagieren soll.
Er soll ja einem Menschen gleich sein.
Ist das den Entwicklern gelungen oder nicht?
Diese Frage sollte zuallererst geklärt werden, finde ich.
Ist es nämlich gelungen, antwortet und reagiert er wie ein normaler Mensch (was irgendwo nichts besonderes wäre oder zumindest schwieriger daraus ne gute Story (für dieses Genre) zu machen).
Soll er aber noch wie eine Maschine denken, dann werden seine Antworten mehr rational und weniger Gefühlvoll sein.

Als Beispiel die erste Frage von real Troll:
Frage: Warum hast du nie neu tapeziert?
Mensch: Willst du mich veräppeln? Wie bitte hätte ich das machen sollen
oder: *Lacht* Das ist ernsthaft die Frage, die du mir stellen willst?
Maschine: Ich habe kein Bedürfnis die Wandgestaltung zu ändern.
oder: Ohne entsprechende Materialien ist es mir nicht möglich die Wand zu tapezieren.

Beim menschlichen kommen mehr die Gefühle durch und beim zweiten bleibt er eher sachlich.
Je nachdem eben, wie gut sein Gefühls-Simulator läuft.

starkev
17.01.2016, 15:12
@real Troll,
Deine Fragen sind interessant. Ich denke, darüber hätte ich in der Richtung gar nicht nachgedacht. Danke! :)

@Eddy131,
Der Roboter weiß nicht, dass er ein Roboter ist - So etwas habe ich mir in dieser Nacht überlegt. So würde der Roboter versuchen, menschlich zu antworten, würde dennoch eine andere Denkweise als ein Mensch haben, ganz einfach, weil er nie diesen einen Ort, an dem er gefangen ist, verlassen hat. Es wäre eine Art Mitte zwischen dem Dasein eines Roboters und eines Menschen. So funktionieren sowohl Gefühle, als auch das sachliche Denken.

Eddy131
17.01.2016, 16:59
@real Troll,
Deine Fragen sind interessant. Ich denke, darüber hätte ich in der Richtung gar nicht nachgedacht. Danke! :)

@Eddy131,
Der Roboter weiß nicht, dass er ein Roboter ist - So etwas habe ich mir in dieser Nacht überlegt. So würde der Roboter versuchen, menschlich zu antworten, würde dennoch eine andere Denkweise als ein Mensch haben, ganz einfach, weil er nie diesen einen Ort, an dem er gefangen ist, verlassen hat. Es wäre eine Art Mitte zwischen dem Dasein eines Roboters und eines Menschen. So funktionieren sowohl Gefühle, als auch das sachliche Denken.
Ok, er kann einen Menschen perfekt imitieren und denkt das er menschlich ist (bzw. weiß überhaupt nichts über sich?).
Die Prämisse "ganz einfach, weil er nie diesen einen Ort, an dem er gefangen ist, verlassen hat" würde dann aber doch auch in gleicher Weise bei einem echten Menschen funktionieren?
Wo da der Unterschied zum Roboter ist versteh ich noch nicht ganz.
Ich meine, nimm einfach einen Menschen, der seine Erinnerung verloren hat oder sie wurde gelöscht. Er hat also nur noch Sach-wissen (immerhin soll er reden können und wissen, was ein Stuhl ist).
Dann könntest du die Geschichte doch genau so aufziehen?
Wäre vielleicht sogar interessant es genau so zu machen: Roboter und Fragende Person (also der Spieler) denken beide, der Roboter sei ein Mensch.
Es soll irgendeine Studie, Experiment oder eine neue Heilmethode erprobt werden und der Probant hat sein Gedächtnis verloren (oder soll so tun oder ...).
Und erst zum Schluss hin kommt heraus, dass es ein Roboter ist.
Die Reaktionen auf dem Weg dahin und bei dem Moment, wo das Geheimnis gelüftet wird, da kann man ordentlich was machen.
Klingt zumindest für mich sehr interessant ^^

starkev
17.01.2016, 22:33
Na ja, eigentlich hatte ich es so geplant:
Beide Probanden sind in einer Kammer eingesperrt gewesen und werden sich gegenüber gesetzt. Beiden wird gesagt, ihr Gegenüber sei ein Roboter und sie sollen Fragen stellen und Antworten leisten. Das ganze Spiel soll sich quasi immer darum drehen, ob nun der Spieler der Roboter ist oder das Gegenüber, vielleicht aber auch beide oder keiner? Das waren meine Überlegungen bisher.

Eddy131
17.01.2016, 22:50
Na ja, eigentlich hatte ich es so geplant:
Beide Probanden sind in einer Kammer eingesperrt gewesen und werden sich gegenüber gesetzt. Beiden wird gesagt, ihr Gegenüber sei ein Roboter und sie sollen Fragen stellen und Antworten leisten. Das ganze Spiel soll sich quasi immer darum drehen, ob nun der Spieler der Roboter ist oder das Gegenüber, vielleicht aber auch beide oder keiner? Das waren meine Überlegungen bisher.
Das klingt sogar noch besser!
Das hättest du vorher dazu schreiben sollen, dann könnte man darauf die Fragen aufbauen, eben um herauszufinden oder zu beweisen was die Wahrheit ist - wobei du wohl nicht zu viel verraten wolltest^^
Wobei das echt schwierig ist.
Was für Fragen stellt man in so einer Situation?
Wie könnte man eindeutig beweisen, das man selber ein Mensch ist bzw. der andere ein Roboter?
Es sollte Situationen geben, die den Spieler überzeugen, das man selber ein Roboter ist, weil man z.B. instinktiv in einer plötzlich eingetretenen Situation sich untypisch verhält oder scheinbar eine Störung in seinen eigenen Modulen auftreten.
Und dann wird das wieder aufgelöst und es gibt scheinbar logische Gründe, warum man so gehandelt hat: Trauma in der Kindheit, Störung im Gleichgewichtssystem aufgrund von Medikamenten oder noch komplexere Lösungen.
Ich stell mir das ungeheuer spannend und intrigantisch vor.

Das Überwachungssystem (egal ob mechanisch, in Form eines Computers oder durch Menschen) sollte dabei die Probanden immer wieder herausfordern und mal Hilfsbereit und freundlich sein, mal anstachelnd oder provokativ diabolisch, dann wieder logisch nachvollziehbar und wieder Situationen die total widersprüchlich erscheinen. Vielleicht auch Befehle, die nicht schaffbar sind mit einer Strafandrohung bei Versagen, und wie man sich da verhält (Versuchen es so gut es eben geht zu schaffen/Wache überzeugen/Wache angreifen/bewusst alles falsch machen, ...).
Oder (Ist zwar jetzt ein wenig von Maze Runner geklaut) es stürmen plötzlich bewaffnete Leute rein, die sagen, dass sie einen befreien wollen und beide/nur einen mitnehmen wollen. Wie entschiedet man sich? Flieht man selber? lässt man den anderen zurück? Verbündet man sich gegen die "Befreier"? Oder versucht man sogar diese zu überwältigen und auf eigene Faust zu fliehen (was natürlich nicht gelingt, da die Aktion gefaket ist und es sich dabei nur um einen weiteren Test handelt).
Man muss aber während der ganzen Zeit weiter daran Rätseln und durch seine Handlungen versuchen herauszufinden, wer hier den nun Mensch oder Maschine ist.
Ein cooler Plot wäre es natürlich auch, wenn am Ende rauskommt, das die beiden Figuren die letzten Menschen auf der Erde sind und alle anderen Figuren Roboter sind die Versuchen das menschliche Verhalten zu erforschen.

Also potential hat deine Idee auf jeden Fall.
Vielleicht helfen dir meine Ideen dabei es auszuschöpfen :)
Ich überleg mir auf jeden Fall noch ein paar Fragen und poste sie hier, wenn mir was interessantes einfällt. :A

Ark_X
18.01.2016, 12:55
(Halbwegs) Spontane Fragen, die ich stellen würde:
"Hast du schonmal in Erwägung gezogen, ein Roboter zu sein?"
"Ist dir schonmal etwas merkwürdiges passiert?" (Stichwort Verletzungen, die Metallteile offenbaren oder nicht bluten, dafür ölen etc.)
"Wie stellst du dir die Außenwelt vor bzw. hast du überhaupt darüber nachgedacht, ob es etwas außerhalb der Kammer gibt?"

Die möglichen Antworten hängen sehr davon ab, wie genau die beiden aufgewachsen sind. Wurden dem Roboter Erinnerungen an eine Kindheit einprogrammiert (denn wachsen wird er wohl kaum können)? Woher kam die Nahrung (von Personen gebracht, durch eine Luke ohne Sichtkontakt oder wird sie immer platziert, wenn er gerade "schläft")? Wie lief seine Erziehung ab?
Sind die beiden, die sich befragen sollen gemeinsam in dieser Kammer aufgewachsen? Wie wurde dann der echte Mensch über die Natur des Roboters getäuscht (kleinen Roboter nachts raus nehmen, Persönlichkeit auf ein etwas größeres Exemplar überspielen und dieses in die Kammer legen)?
Wie erfolgte die (Aus)Bildung (wie Eddy schon anmerkte, sollen sie ja Konzepte wie "Roboter" auch selbst verstehen können)? Und falls tatsächlich beide gemeinsam "aufgewachsen" sind, müsste man sich nochmal in diese Person hinein versetzen, denn ich bin mir ziemlich sicher, dass diese beiden sich andere Fragen stellen als jemand von uns, der von außen hinzu geholt wird und dem zufällig ausgewählt der Mensch oder der Roboter zur Befragung vorgesetzt wird.

Merkt man, dass mir solche Philosphierereien Spaß machen? :D

EDIT: Da fällt mir gerade noch ein Anschluss an die 2. Frage ein: "Sollen wir uns gegenseitig in den Finger stechen (um zu sehen, ob es blutet etc.)?"


Das ganze Spiel soll sich quasi immer darum drehen, ob nun der Spieler der Roboter ist oder das Gegenüber, vielleicht aber auch beide oder keiner?
Hast du schon eine Vorstellung, wie du ggf. sicherstellst bzw. erkennbar machst, dass der Spieler der Roboter ist? Durch die Formulierung der Antworten? Oder entscheidet sich (für den Spieler) die eigene Rolle durch die gewählten Antworten (wie in diversen Persönlihckeitstest)?

Eddy131
18.01.2016, 14:50
@Ark_X: Ich würde erst mal Fragen, ob die beiden überhaupt Erinnerungen haben.
So wie ich das von starkev verstanden haben, haben die beiden quasi keine Vergangenheit - sie waren die ganze Zeit einzeln (Zumindest der Spieler) in dieser Kammer eingesperrt und haben damit auch keine gemeinsamen Erinnerungen.
Auch ist fraglich ob ein anpieksen (testen ob man blutet) etwas bringt.
Zum Einen könnten die Technologien schon so weit fortgeschritten sein, dass es wie bei einem echten Mensch wirkt bzw. könnte es eine biologische Maschine sein oder man lebt in einer Matrix die den perfekten menschlichen Körper simuliert.
Zum Anderen: Wissen die beiden Protagonisten überhaupt, wie ein Mensch aussieht und das dieser blutet? Die Erinnerungen könnten ja verändert worden und damit glauben die Figuren dann, das Kabel und Öl zu einem normalen Menschen gehören.
Oder noch anders: Warum sollte ein Mechanischer Arm ein Beweis dafür sein, dass man eine Maschine ist? Es könnte ja sein, dass man ein menschliches Gehirn in einen Androiden gepackt hat? Oder auch nur den Part, der die Persönlichkeit ausmacht, was den Verlust der Erinnerung erklären könnte.
Und dann kommt die nächste (philosophische) Frage: Wie viel Mensch muss da sein, damit es noch ein Mensch ist?
Was macht einen Menschen aus?
Wenn ich einen Menschen immer weiter ver-robotisiere, verliert er dann irgendwann seine Menschlichkeit?
Kann man nur zum Teil menschlich sein? Wie misst man das?
Und wenn nicht: Ab welchem Punkt ist man es noch?
Wenn ich die menschliche Natur und sein komplexes Wesen zu hundert Prozent künstlich nachbaue, ist es dann ein Mensch?

Beispiel: Ich scanne mit einem hochpräzisen Scanner einen existierenden Menschen.
Nun drucke ich mir einem Atom-Drucker diesen Menschen exakt nochmal aus.
Ist das dann ein Mensch? Oder ein Klon?
Was ist mit der Seele? Wird die mit "ausgedruckt"? Oder teilt sich eine Seele 2 Körper? Oder fällt der zweite Tot um/vegetiert nur vor sich hin, weil ihm die ihn menschlich machende Seele fehlt?
Man kann ja keinen Unterschied zwischen Original und Kopie erkennen - sind dann beide gleich und auch gleichwertig? Oder hat das Original mehr Rechte, menschlichkeit, ... ? Und warum?

Man sieht, je nach dem wie weit man das Thema treiben will kann man es hochkomplex gestalten.
Und da es in dem Bereich keine realen Erkenntnisse gibt (oder hat schon wer seinen Nachbarn kopiert?), kann man da wunderbar spekulieren und es alles nach eigenen Wünschen "real" machen :)
Die Konstellation mit Original und Klon wäre übrigens auch recht interessant. Es muss laut deiner Prämisse ja nicht unbedingt einer der beiden eine Maschine sein.
Du könntest die beiden Protas ja durch mehrere Phasen führen und sie ausdiskutierne und irgendwie testen lassen: Klon-These, Roboter-These, Matrix-These, letzte-Menschen-These, ....
Und eigentlich müsstest du es zum Schluss auch nicht auflösen. Eine Schwebende Ungewissheit am Ende was den nun stimmt ist gerade bei dem Thema recht angebracht ;)
So bleibt auch ein wenig von der Magie des "Was wäre wenn...?" erhalten.
Daher würde sich eine Rahmenhandlung die quasi alles abschließt (nur halt nicht die Frage, um die es geht) anbieten.
Z.B. das die beiden nachher entlassen werden oder irgendwie fliehen können oder ein wenig trauriger: Sie schaffen es Selbstmord zu begehen um den Tests zu entkommen.
Oder nicht ganz so tragisch: Sie opfern sich selbst um jemand anderen (andere Testpersonen?) zu befreien.

Das bringt mich auf eine andere Idee:
Man spielt nicht die Probanden, sondern einen Teil des Überwachnugs-/Prüf-Systems (Wärter, Wissenschaftler, Überwachungs-KI) und beobachtet dann einzelne Probanden mit verschiedenen Ausgangssituationen.
Dabei gibt es dann einen Raum mit 2 Menschen, einen mit 2 Androiden, einen mit 2 Klonen, dann noch welche mit Kombinationen, etc., also mit all den Varianten die ich oben unter anderem angesprochen habe.
Und dann gibt man als Tester die Fragen und Testszenarien vor.
Vielleicht ist es sogar so, dass man selber nicht weiß (weil man nicht wichtig genug ist, es einen Fehler im System gab, ...) welche Kombination in welchem Raum ist und man nun versuchen möchte das auf eigene Faust herauszufinden.

Oh man, du hast dir da echt grandioses Thema mit so vielen tollen Möglichkeiten ausgesucht :)
Falls du keine Lust mehr hast da was zu machen, sag bescheid, dann übernehm ich das vielleicht :D

Ark_X
18.01.2016, 16:56
Ja, bei diesem Thema kommt man ganz schnell vom Hundertsten ins Tausendste, daher bohre ich ja auch nach einer möglichst präzisen Beschreibung der Ausgangssituation (inkl. Vorgeschichte). Wenn mir beispielsweise erzählt wird, dass das Wesen mir gegenüber tatsächlich allein in dieser Kammer aufwuchs und dann ganz normal auf meine Fragen (egal welche) antwortet, würde ich sehr stark dazu tendieren, dass dies ein Roboter ist - ein Mensch müsste nämlich unter solchen Bedingungen ziemliche (geistige und evtl. auch körperliche) Entwicklungsstörungen angesammelt haben, wenn er überhaupt so lange überlebt hätte (gab da mWn einige sehr grausame Experimente mit Menschenaffen und sogar Menschenkindern, die die Notwendigkeit sozialer Kontakte herausstellten).

Und wenn er normal aufwuchs, ihm aber seine Erinnerungen genommen wurden, dann würde ich auch keine ruhigen Antworten erwarten, sondern eher, dass er MIR Löcher in den Bauch fragt, denn Amnesie stelle ich mir sehr erschreckend für den Betroffenen vor (es mag sicherlich Ausnahmen geben, die das dann einfach hinnehmen und lieber komplett nach vorn schauen).

starkev
18.01.2016, 17:20
@Eddy131, @Ark_X

Ich habe während eines Spazierganges in eisiger Kälte über eure Worte nachgedacht und danke euch für diese, da ich dadurch auf zig Millionen neue Ideen kam, die aus meiner Kurzgeschichte schon einen Roman, Film oder ein richtiges Spiel machen würden.
Zum Beispiel habe ich darüber nachgedacht, dass man die Geschichte aus allen Perspektiven teilnehmender Charaktere erzählen könnte. Zuerst steuert man Proband 1, danach Proband 2 und vielleicht noch einen dritten Probanden, der die ganze Situation jedoch nur beobachten soll und dem gesagt wird, er solle feststellen, wer von beiden der Roboter ist, oder ob es beide sind oder keiner ist.
Alle meine Ideen hier aufzuzählen, wäre enorm umfangreich, aber viele eurer Gedanken würden dort mit einfließen.

Wenn ihr mir bei diesem Projekt helfen möchtet, könnte man wirklich ein etwas umfangreicheres Spiel machen, als ich anfangs plante. Wenn ihr also Interesse habt, schreibt mich ruhig an. Aktuell bin ich sowieso noch mit meinem Projekt "Die Geschichte von Dir und Mir" beschäftigt, während hierzu derzeit nur Recherche und Ideensammlung stattfindet und das vielleicht noch eine gewisse Zeit lang.

Mit freundlichen Grüßen,
Starkev

Ark_X
19.01.2016, 21:22
Ein Gedanke (bzw. eine Frage), die mir gerade noch kam: Falls der Roboter trotz einprogrammiertem menschlichen Verhalten sich unterbewusst immer noch nach den Robotergesetzen (https://de.wikipedia.org/wiki/Robotergesetze) richtet, könnte man ihn folgendes fragen:
"Könntest du zur Selbstverteidigung einen Menschen verletzen oder sogar töten?"

Ein "Nein" wäre zwar auch kein 100%iger Indikator (sofern dem Fragenden überhaupt mitgeteilt wird, ob die Robotergesetze Gültigkeit haben), aber doch möglicherweise ein starker Hinweis oder was denkt ihr?

Eddy131
19.01.2016, 22:19
Ein Gedanke (bzw. eine Frage), die mir gerade noch kam: Falls der Roboter trotz einprogrammiertem menschlichen Verhalten sich unterbewusst immer noch nach den Robotergesetzen (https://de.wikipedia.org/wiki/Robotergesetze) richtet, könnte man ihn folgendes fragen:
"Könntest du zur Selbstverteidigung einen Menschen verletzen oder sogar töten?"

Ein "Nein" wäre zwar auch kein 100%iger Indikator (sofern dem Fragenden überhaupt mitgeteilt wird, ob die Robotergesetze Gültigkeit haben), aber doch möglicherweise ein starker Hinweis oder was denkt ihr?
In der Situation würde ich mit denen eigentlich gar nicht erst anfangen.
Ziel ist es ja, einen möglichst glaubwürdigen Menschen zu simulieren (sonst würde das ganze ja keinen Sinn ergeben).
Warum sollte man sich (bzw. den Roboter) dann unnötig so stark beschränken?
Vor allem steht noch die Frage im Raum, ob jemand überhaupt menschlich sein kann, wenn er keinen freien Willen hat - den der wird ja durch diese Gesetzte (würd es eher Zwänge nennen) unterdrückt.

Man könnte sie vielleicht ansprechen, wobei ich sie ganz weglassen würde.
Immerhin sind sie auch nur eine Erfindung eines Schriftstellers.
Wie - und ob überhaupt - das in einen komplexen sich wandelnden und lernfähigen Organismus implementiert werden kann; die Frage wird dabei auch völlig außer acht gelassen (siehe "I Robot", dass auch von dem Erfinder der Roboter-Gesetze kommt (wenn ich mich recht erinnere) und dort schafft es das Ober-System ja auch die Menschen als Bedrohung zu klassifizieren, also die Gesetze zu umgehen).

Ark_X
20.01.2016, 09:13
@"I Robot": Meiner Interpretation nach hat der Zentralcomputer lediglich die Gesetze bis zur letzten Konsequenz durchdacht. Die Gesetze wurden nämlich mit Hinblick auf mögliche Zwickmühlen definiert, insbesondere Situationen, wo mehrere Menschen gleichzeitig bedroht sind, ein anwesender Roboter aber nicht alle retten kann, egal was er tut.
Die Roboter sind für solche Fälle darauf programmiert, die Lösung mit den meisten Überlebenden (bzw. im Falle des Grundes für die Abneigung des Protagonisten die Vitalsten) zu verfolgen.
Da der Zentraleinheit die Menschen selbst als deren größte Bedrohung erkannt hat (und mal ehrlich, wer würde dem nicht zustimmen), kam sie zu dem Schluss, dass alle Menschen stärker überwacht werden müssen. Verletzungen und Mord sind in diesem Zusammenhang auch nur soweit zulässig, wie sie den natürlich aufkommenden Widerstand unterdrücken.

Und "nur eine Erfindung" eines Schriftstellers ist auch etwas arg tiefgestapelt. Immerhin handelt es sich dabei um eine zunehmend aktuellere Facette unserer modernen Welt, nämlich der Frage, wie wir uns davor schützen können, von unserem eigenen Fortschritt und insbesondere "Experimenten" mit zumindest teilweise ungewissem Ausgang schützen können (ganz aktuell: noch gezieltere Genmanipulation, potentiell im pränatalen Stadium).

Liferipper
20.01.2016, 10:27
Wie - und ob überhaupt - das in einen komplexen sich wandelnden und lernfähigen Organismus implementiert werden kann; die Frage wird dabei auch völlig außer acht gelassen (siehe "I Robot", dass auch von dem Erfinder der Roboter-Gesetze kommt (wenn ich mich recht erinnere) und dort schafft es das Ober-System ja auch die Menschen als Bedrohung zu klassifizieren, also die Gesetze zu umgehen).

Ich hab mich nicht näher damit beschäftigt, aber von dem, was ich mitbekommen habe, scheint Asimov ein etwas zwiegespaltenes Verhältnis zu seinen eigenen Robotergesetzten gehabt zu haben: Er hat sie zwar durchaus hinterfragt, aber eigentlich nicht nach einer Alternative/einem anderen Ansatz gesucht :\.

Ark_X
20.01.2016, 11:15
In gewisser Hinsicht waren die Robotergesetze ja auch eher Mittel zum Zweck bzw. der Hintergrund, auf dem seine Geschichten aufbauten, denn häufig ging es ja gerade um die Grenzen dieser Gesetze. Ich bin kein Jurist, aber mit Worten lassen sich wohl nie alle möglichen Situationen abdecken (zumindest wenn solche Gesetze in einem gewissen Sinne vernünftig bleiben sollen).

Ich erinnere mich gerade nur an eine Geschichte, in der ein Roboter in einer Art Endlosschleife gefangen war, da er für sein Missionsziel in einen Bereich erhöhter Strahlung, die auch ihn gefährden konnte, musste (Tagseite eines Planeten/Mondes?). Er bewegte sich immer ein Stück weit auf sein Ziel zu, bis seine Sensoren die Überschreitung seiner Toleranzgrenze meldeten und er wieder kehrtmachte, bis die Belastung abgeklungen war. Darauf hin begann der ganze Spaß von vorn.

Eddy131
20.01.2016, 13:53
@"I Robot": Meiner Interpretation nach hat der Zentralcomputer lediglich die Gesetze bis zur letzten Konsequenz durchdacht. Die Gesetze wurden nämlich mit Hinblick auf mögliche Zwickmühlen definiert, insbesondere Situationen, wo mehrere Menschen gleichzeitig bedroht sind, ein anwesender Roboter aber nicht alle retten kann, egal was er tut.
Die Roboter sind für solche Fälle darauf programmiert, die Lösung mit den meisten Überlebenden (bzw. im Falle des Grundes für die Abneigung des Protagonisten die Vitalsten) zu verfolgen.
Da der Zentraleinheit die Menschen selbst als deren größte Bedrohung erkannt hat (und mal ehrlich, wer würde dem nicht zustimmen), kam sie zu dem Schluss, dass alle Menschen stärker überwacht werden müssen. Verletzungen und Mord sind in diesem Zusammenhang auch nur soweit zulässig, wie sie den natürlich aufkommenden Widerstand unterdrücken.

Und "nur eine Erfindung" eines Schriftstellers ist auch etwas arg tiefgestapelt. Immerhin handelt es sich dabei um eine zunehmend aktuellere Facette unserer modernen Welt, nämlich der Frage, wie wir uns davor schützen können, von unserem eigenen Fortschritt und insbesondere "Experimenten" mit zumindest teilweise ungewissem Ausgang schützen können (ganz aktuell: noch gezieltere Genmanipulation, potentiell im pränatalen Stadium).
Stimmt schon irgendwo. Aber dennoch widerspräche das dem ersten (und damit wichtigstem) Robotergesetz.
Ich zitiere mal den Bereich mit den Gesetzen aus Wikipedia:

"Die Asimov’schen Gesetze lauten:



Ein Roboter darf kein menschliches Wesen (wissentlich) verletzen oder durch Untätigkeit gestatten, dass einem menschlichen Wesen (wissentlich) Schaden zugefügt wird.
Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren.
Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.


Man beachte, dass die Gesetze hierarchisch aufgebaut sind. Sie bilden den Hintergrund der in Ich, der Robot (1950) gesammelten Science-Fiction-Erzählungen und prägen seither die Auffassung, was und wie ein Roboter sein sollte. Die von Asimov beschriebenen Roboter sind in ihrem Verhalten und ihren Entscheidungen an diese Gesetze gebunden."

Er darf keinen Menschen verletzen, völlig egal aus welchen Gründen.
Auch wenn dadurch andere Menschen möglicherweise verletzt werden können (eben durch die zu große Freiheit aller und damit auch potentieller Mörder).
Und da komme ich dann wieder zu meiner anfänglichen Frage: Wie ist das System mit den Gesetzen implementiert?
Und wie weit kann der Computer sich selber und damit auch die Gesetze umschreiben und verändern?
Selbst Mechanische Programmcodes (damit meine ich solche, die so geschrieben wurden, das sie nicht mehr softwareseitig geändert werden können - etwa eine nichtwiderbeschreibbare DVD) könnten von einem so mächtigen Zentralcomputer wie in I Robot umgangen werden:
Sie lassen einen der Roboter den Bereich entfernen/beschädigen so dass der Zentralrechner nicht mehr daran gebunden ist.
Oder das Programm schreibt den Rest so weit um, das die Gesetze keine Relevanz mehr haben.
Da sehe ich die größten Probleme mit den Gesetzen im Zusammenhang mit einem extrem hochentwickeltem, hochintelligentem und sich selbst weiterentwickelndem System.

Ark_X
20.01.2016, 20:53
Aber dennoch widerspräche das dem ersten (und damit wichtigstem) Robotergesetz.
Ich zitiere mal den Bereich mit den Gesetzen aus Wikipedia: [...]
Jein. Zum einen hast du einfach das (zugegebnermaßen erst später hinzugefügte) noch darüberstehende Nullte Gesetz einfach außer Acht gelassen, welches ausdrücklich das Wohl der Mehrheit bzw. der Menschheit als Ganzes priorisiert.

Zum anderen ist es gerade in "I Robot" so, dass dieses Gesetz garnicht in die Roboter "eingeprägt" wird, sondern vom Zentralcomputer aus den anderen dreien abgeleitet wird. Das könnte man jetzt wieder als eine mögliche Umgehungstaktik interpretieren, allerdings setzt diese Sichtweise meiner Meinung voraus, dass eine so handelnde KI bereits plant, Menschen zu Schaden und ich denke, ein nach den Gesetzen funktionierender Roboter ist zu solchen Gedanken gar nicht fähig.
Das der Zentralcomputer dennoch diesen Weg beschreitet, ist durch dessen gänzlich anderes Ziel begründet. Er will ja gerade die Menschen (bzw. die Menschheit) so gut wie möglich schützen und dazu muss er die einzelnen Menschen eben an die enge Leine legen.

Eddy131
20.01.2016, 21:24
Das nullte Gesetz sagt mir jetzt nichts. Ich kenne halt nur die beiden Filme "I Robot" und "Der 200 Jahre Mann" von ihm (bzw. auf seinen Büchern basierend).
Ich meine da kommen nur die 3 Grundgesetze drin vor.
Bzw. der Zentralrechner in I Robot leitet es sich im Prinzip ja her, wenn man es denn so sehen will.

Aber selbst wenn man das nullte Gesetz ("Ein Roboter darf die Menschheit nicht verletzen oder durch Passivität zulassen, dass die Menschheit zu Schaden kommt.") dazu nimmt, bleibt immer noch das erste Gesetz.
Man kann die Menschen ja einmal mit Tod einzelner drohen, aber es gibt auch andere Methoden (Freiheitsberaubung, andere Strafen wie etwa Gewalt die aber nicht im Tod mündet).
Und wenn der Roboter an die vier (3 plus Nulltes) Gesetze gebunden ist, dann müsste er streng genommen erst die anderen Möglichkeiten durchspielen, bevor es überhaupt zur Gewalt kommt.

Ich hab nochmal ein bisschen genauer nachgeforscht, und scheinbar wurden die Robotergesetze bei Asimov innerhalb seiner Bücher (die, soweit ich das Verstanden habe, im selben Universum spielen und einen Zeitraum von mehreren Zehntausend Jahren abdecken) irgendwann durch neue Gesetze ersetzt:


Ein Roboter darf keinen Menschen verletzen.
Ein Roboter ist verpflichtet, mit Menschen zusammenzuarbeiten, es sei denn, diese Zusammenarbeit stünde im Widerspruch zum Ersten Gesetz.
Ein Roboter muss seine eigene Existenz schützen, solange er dadurch nicht in einen Konflikt mit dem Ersten Gesetz gerät.
Ein Roboter hat die Freiheit zu tun, was er will, es sei denn, er würde dadurch gegen das Erste, Zweite oder Dritte Gesetz verstoßen.

Ob die jetzt besser sind oder nicht bleibt mal dahingestellt.
Auf jeden Fall betonen sie die Individualität und den freien Willen des einzelnen Roboters durch das letzte Gesetz stärker.
Aber auch hier bleibt die Einschränkung durch die anderen Gesetze (also dennoch weiterhin ein pseudo-freier Wille).

Liferipper
20.01.2016, 21:50
Das könnte man jetzt wieder als eine mögliche Umgehungstaktik interpretieren, allerdings setzt diese Sichtweise meiner Meinung voraus, dass eine so handelnde KI bereits plant, Menschen zu Schaden und ich denke, ein nach den Gesetzen funktionierender Roboter ist zu solchen Gedanken gar nicht fähig.


Und wenn der Roboter an die vier (3 plus Nulltes) Gesetze gebunden ist, dann müsste er streng genommen erst die anderen Möglichkeiten durchspielen, bevor es überhaupt zur Gewalt kommt.

Ich frage mich, wie ihr beiden zu diesem Schluss kommt. Nur weil ein Roboter einem Menschen nicht schaden darf, heißt das nicht, dass er nicht daran denken darf/kann, einem Menschen Schaden zuzufügen. Ganz im Gegenteil. Wenn der Roboter nicht weiß, was einen Menschen umbringen würde, könnte er es logischerweise auch nicht unterlassen.

Eddy131
20.01.2016, 22:06
Ich frage mich, wie ihr beiden zu diesem Schluss kommt. Nur weil ein Roboter einem Menschen nicht schaden darf, heißt das nicht, dass er nicht daran denken darf/kann, einem Menschen Schaden zuzufügen. Ganz im Gegenteil. Wenn der Roboter nicht weiß, was einen Menschen umbringen würde, könnte er es logischerweise auch nicht unterlassen.
Und wo widerspricht das meiner Aussage? An Gewalt gegen de Menschen muss er sogar denken, immerhin soll er sie verhindern. Er darf sie nur nicht ausführen, soweit möglich.

Ark_X
20.01.2016, 22:34
@Eddy: Das Nullte Gesetz hat sogar einen eigenen Abschnitt im von mir verlinkten und auch von dir zitierten WIKI-Artikel.

@Liferipper: Der Gedanke, dass ich es mit dem "Denkverbot" etwas zu scharf formuliert habe, kam mir auch kurz nachdem ich den Post abgeschickt hatte. Ich würde auch eher von einem Kontrollmechanismus ausgehen, der verhindert, dass der Gedankengang zu weit verfolgt bzw. in die Tat umgesetzt wird. Insbesondere sollte ein Roboter sich dessen bewusst sein, dass er durch eine eigenmächtige Umprogrammierung seiner selbst letztendlich Menschen gefährdet und dieser somit entgegenwirken.

EDIT: @Eddy: Zu deinem Umgehungsvorschlag, sich einfach von einer anderen Maschine umprogrammieren zu lassen, fiel mir noch als Einwand ein, dass dies (sicherlich auch wieder je nach Sichtweise) im Konflikt zum 3. Gesetz stehen könnte.