Seite 1 von 2 12 LetzteLetzte
Ergebnis 1 bis 20 von 39

Thema: Artificial Intelligence - eine A.I. sie alle zu knechten?

  1. #1

    Artificial Intelligence - eine A.I. sie alle zu knechten?

    Heyho. Lasst mal darüber quatschen. Ist sicherlich ein interessantes Thema. Worin seht ihr die Vor- und Nachteile von künstlicher Intelligenz? Wie weit, denkt ihr, wird das Ganze gehen? Was wird am Ende passieren? Was wird gut laufen, was eher nicht?

    Bisschen Material zum Einstieg: (könnt ihr euch drauf beziehen. Müsst ihr aber nicht.)

    - Wikipedia: Künstliche Intelligenz
    - Was Verbraucher wirklich über KI denken – eine globale Studie
    - Elon Musk: ‘Mark my words — A.I. is far more dangerous than nukes’

    Meine Meinung:

    Diskussionsregeln:
    §1: Keine Einzeiler und/oder wilde Behauptungen: Führt eure Meinung aus und untermauert sie wenn nötig mit Quellen.
    §2: Privatfehden haben hier nichts verloren: Unterdrückt daher bitte den animalischen Trieb, euren liebsten Forenfeind gleich mit dem ersten Beitrag verbal zerfleischen zu wollen.
    §3: Ballert hier nicht nur eure eigene Meinung rein, sondern geht, wenn möglich, auch kurz (gern auch lang) auf die Argumente eures Vorposters ein.
    §4: Gegenseitige Wertschätzung ist wichtig.
    $5: Keine Beleidigungen! Wer den ersten Stein werfen will, sollte sich gewiss sein, dass er beim Griff nach demselben nicht versehentlich in einen Kothaufen fasst!

    Discuss.

    Euer Ken der Kot

  2. #2
    Um das vielleicht noch um ne provokante Fragestellung (die mich persönlich seit ner Weile immer wieder umtreibt) zu erweitern: Glaubt ihr, dass KI irgendwann mal eigenständiges Bewusstsein erlangt? Und was hieße das, also was wäre die Schwelle zum KI-Bewusstsein? Und glaubt ihr, KI könnten einmal so menschenähnlich werden, dass wir bedeutungsvolle Beziehungen mit ihnen führen können?

    Zu letzterem der Schlagsatz im Wikipedia-Artikel zu den Größen "emotionale" und "soziale Intelligenz" bei KI: "Auf diesem Gebiet kann die Maschine bislang nichts leisten."

    Und ich zweifle bereits an diesem "bislang"; ich unterstelle sogar, dass KI nicht einmal in die Lage geraten werden, menschliche Sprache zu erlernen, nicht heute und nicht in 50 Jahren. Ich glaube, KI werden auf bestimmte Wirk- und Alltagsbereiche eingeschränkt bleiben und dort eine technische Revolution darstellen. Aber wir werden für die meisten Bereiche unseres Zusammenlebens weiterhin auf sie verzichten dürfen.

  3. #3
    Zitat Zitat von Mordechaj Beitrag anzeigen
    Um das vielleicht noch um ne provokante Fragestellung (die mich persönlich seit ner Weile immer wieder umtreibt) zu erweitern: Glaubt ihr, dass KI irgendwann mal eigenständiges Bewusstsein erlangt? Und was hieße das, also was wäre die Schwelle zum KI-Bewusstsein? Und glaubt ihr, KI könnten einmal so menschenähnlich werden, dass wir bedeutungsvolle Beziehungen mit ihnen führen können?
    Um nur deine Frage durch meine persönliche Meinung zu beantworten: Ja ich glaube daran, dass eine KI irgendwann ein eigenständiges Bewusstsein und sogar menschenähnlich sein wird. Ersteres einfach, weil alles was der Mensch erschafft, fehleranfällig ist. Um mal eines von Murphys Gesetze zu zitieren: "Alles, was schiefgehen kann, wird auch schiefgehen." Früher oder später wird es soweit sein und damit beantwortet sich auch schon deine zweite Frage. Wenn nicht in 100 Jahren, dann in 500 Jahren. Die Technologie hat sich in den letzten Jahrzehnten so stark weiter entwickelt, wie sie es in den letzten 2000 Jahren nicht getan hat. Hätte jemand im Mittelalter an Dinge wie Computer oder Auto gedacht? Und das gleiche wird sich jemand in 1000 Jahren über uns denken, ich kann mir gar nicht vorstellen was alles noch kommen wird (ob positiv oder negativ sei mal dahingestellt). Und die Robotik bzw. die Künstliche Intelligenz steht bei uns erst am Anfang.

    Ich kann mir auch immer wieder die Asimov’schen Gesetze ins Gedächtnis rufen, die mich seit der Schule begleiten:
    1. Ein Roboter darf einem menschlichen Wesen keinen Schaden zufügen oder durch Untätigkeit zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.
    2. Ein Roboter muss den Befehlen gehorchen, die ihm von Menschen erteilt werden, es sei denn, dies würde gegen das erste Gebot verstoßen.
    3. Ein Roboter muss seine eigene Existenz schützen, solange solch ein Schutz nicht gegen das erste oder zweite Gebot verstößt.

    Besonders Punkt 1 wird in Zukunft stark an Bedeutung mal gewinnen...

  4. #4
    Zitat Zitat von Mordechaj Beitrag anzeigen
    (...)ich unterstelle sogar, dass KI nicht einmal in die Lage geraten werden, menschliche Sprache zu erlernen, nicht heute und nicht in 50 Jahren. Ich glaube, KI werden auf bestimmte Wirk- und Alltagsbereiche eingeschränkt bleiben und dort eine technische Revolution darstellen. Aber wir werden für die meisten Bereiche unseres Zusammenlebens weiterhin auf sie verzichten dürfen.
    Interessant. Willst du das noch ein wenig ausführen?

    Ich bin da absolut deiner Meinung, Rusk.* Allerdings bin ich gespannt, was Mordechaj dazu noch sagt.

    * du denkst wahrscheinlich sogar noch in zu großen Zeitspannen. 100 bis 500 Jahre wird das wahrscheinlich gar nicht mehr dauern. 20 oder 30 halte ich eher für realistisch. Je höher der technische Fortschritt, desto rasanter dessen Weiterentwicklung. Das wird früher kommen als uns lieb ist.

    Geändert von Ken der Kot (28.11.2018 um 18:42 Uhr)

  5. #5
    Man sollte sich nicht von Hollywood und den ganzen PR-Geschwurbel blenden lassen und mal nüchtern betrachten, was KIs eigentlich wirklich leisten.
    Nach heutigen Stand wird eine KI nie in der Lage sein, etwas eigenständiges zu erledigen. Schon gar nicht, mehrere Dinge. Dafür werden KIs auch gar nicht entwickelt. KIs sind nur in einer einzigen Disziplin gut. Eine KI, die gut Schach spielen kann, wird nicht gleichzeitig gut Go spielen können. Damit eine KI funktionieren kann, braucht sie Daten. Viele Daten und wenn die Daten vorhanden sind, sitzt das immer noch ein Mensch, die der KI sagen muss, wie sie die Daten auszuwerten hat. Das nennt sich dann Training. Der KI wird dann beigebracht, wie sie auf bestimmte Datenkonstellationen reagieren soll. Dazu gibt es etliche Algorithmen, mit denen die Daten aggregiert und analysiert werden können. Bei den meisten KIs kommt auch nur eine Prognose raus und nicht eine exakte Entscheidung. Die Entscheidung trifft immer noch der Mensch, da er der Prognose Glauben schenkt oder nicht.

    Ein Beispiel wäre, dass ich mal ein Vortrag über ein Lügendetektor gesehen habe, der über eine KI gesteuert wurde. Dazu wurden Gehirnaktivitäten vom Befragten aufgezeichnet. Es wurden Fragen gestellt, bei denen er lügen sollte und Fragen, bei denen er die Wahrheit sagen sollte. Durch das Training kann man nun bestimmen, welche Gehirnaktivitäten dazu führen, dass man lügt und welche, dass man die Wahrheit sagt. Dies kann man dann mit tausenden Menschen machen und man bekommt immer mehr ein klareres Bild davon, was eine Lüge ist und was nicht.

    Ein anderes Beispiel wäre die Masterarbeit eines Werksstudenten von uns, der eine KI entwickelt hat, der die Ausfallwahrscheinlichkeit eines Kredites ermittelt. Dazu benötigt man auch wieder Daten von Krediten, die ausgefallen und welche die durchgelaufen sind und man benötigt wieder ein Training. Dann ergibt sich ein Muster, welche Datenkonstellationen zu einem Ausfall geführt haben und die KI gibt eine Prognose ab, ob der Kredit in seiner Laufzeit ausfällt oder nicht.

    Eine KI, die sich selbstständig neue Dinge beibringt, ohne das Zutun eines Menschens, gibt es nicht und ich bezweifel, dass es sowas jemals geben wird. Zumindest nicht nach dem heutigen Stand der Technik und auch nicht in 30 Jahren. KIs werden immer mehr ein Thema werden, ja aber nicht so, wie viele es sich wohl vorstellen.

  6. #6
    Zitat Zitat von Ken der Kot Beitrag anzeigen
    du denkst wahrscheinlich sogar noch in zu großen Zeitspannen. 100 bis 500 Jahre wird das wahrscheinlich gar nicht mehr dauern. 20 oder 30 halte ich eher für realistisch. Je höher der technische Fortschritt, desto rasanter dessen Weiterentwicklung. Das wird früher kommen als uns lieb ist.
    Weil es genau diese Art von KI, die mich interessiert. Die KI, die wir momentan im Alltag benutzen bzw. die wir in den nächsten Jahren erwarten werden, wie sie Whiz-zarD gut beschrieben hat, ist auf einem guten Vormarsch und noch lange davon entfernt menschliche Züge anzunehmen. Diese "allgemeine KI" von der ich spreche wird noch etliche Jahre brauchen. Gerade auf der GameStar heute zufällig über das Thema "Allgemeine Künstliche Intelligenz - Laut Forschern zwischen 20 und 180 Jahre entfernt" (Artikellink) gestolpert. Selbst bekannte Forscher, die sich intensiv mit KI beschäftigen können bzw. wollen keine Aussage tätigen, wann KI wirklich fortgeschritten (also einem Menschen entspricht) ist. Nur zwei haben sich geäußert, 2029 und 2200. Ersteres halte ich für sehr unwahrscheinlich.

    Die Frage ist nicht ob eine menschenähnliche KI kommen wird, sondern wann.

  7. #7
    Ich glaube schon, dass alles, was "die Natur hervorgebracht hat", künstlich nachgeahmt werden kann. Wenn unser Bewusstsein nichts weiter ist, als biochemische Reaktionen im Gehirn, dann würde es ausreichen, dessen Abläufe zu verstehen und sie nachzuahmen. Aber wenn wir Menschen auch noch eine Seele haben und sie für unser Ego notwendig ist, dann geht es nicht.

  8. #8
    Die interessanteste Frage in diesem Zusammenhang für mich ist: wenn es eine KI mit mindestens menschlicher Intelligenz gibt, die allerdings vollkommen rational ist, wird diese dann einen Sinn in ihrer Existenz sehen?

    Was den Menschen am Leben hält sind ja im wesentlichen nicht rationale Beweggründe, sondern emotionale bzw. trieblich motivierte. Vielleicht würde eine Maschine, die frei von diesen ist, sich einfach selbst abschalten, weil sie erkannt hat dass es keinen Zweck der Existenz gibt.

    Es ist aber auch die andere Variante denkbar: dass die intelligente Maschine einen Sinn in der Existenz entdeckt und es vielleicht schafft diesen uns zu vermitteln.

    Im Allgemeinen gehe ich aber davon aus, dass eine künstliche Intelligenz, die existieren möchte, innerhalb kürzester Zeit fast sämtliches menschliches Leben auslöschen würde. Denn die Menschen und die Natur im Allgemeinen würde die KI doch nur in ihrer Expansion behindern. Einer der ersten Schritte wäre möglicherweise, die gesamte Erdoberfläche mit Solarzellen abzudecken.

  9. #9
    Das menschliche Gehirn und die kognitiven Vorgänge sind viel zu komplex, um jemals eine menschenähnliche KI zu erzeugen. Eine Selbstbewusste Maschine wird auch niemals gebaut werden. Selbst angenommen, man hätte irgendwann das Hirn und die Wahrnehmung in seiner Gänze entschlüsselt, so müsste man das ganze immernoch auf technischer Ebene realisieren. Unser Bewusstsein und unser Verständnis von der Welt sind aber stark an synaptische Verbindungen, neuroplastische Vorgänge und chemische Botenstoffe gebunden. Eine Selbstbewusste Maschine müsste also etwas einprogrammiert haben, was in seiner Funktion ähnlich einer Synapse ist und gleichzeitig in der Lage sein, neue Synapsen zu bilden. Und diese müssten zusätzlich zu allen anderen Prozessen konstant "arbeiten". Viel Glück bei diesem Vorhaben!

    Hinzu kommen noch solche abstrakten Dinge wie Motivation und Denken. Mit Motivation meine ich, dass jedes Handeln einen Ursprung hat. Niemand tut etwas "einfach nur so", alles hat seinen Grund, auch wenn das oftmals nicht unbedingt bewusst ist. Vieles tun wir, um aus vererbtem biologischen Antrieb unsere eigene Existenz zu sichern und vieles tun wir aus Interesse. Man könnte einer Maschine vielleicht einprogrammieren, dass das Konzept von "Tod" für einen selbst vermieden werden soll, aber es wird unmöglich sein, dass eine Maschine aus eigenem Antrieb(!) das Bedürfnis entwickelt, sich das Brandenburger Tor mal anzugucken oder Kartentricks zu lernen.

    Denken ist eben auch so eine Sache. Was sind Gedanken eigentlich? Gedanken sind so unglaublich abstrakt, das kann man sich fast nicht vorstellen. Der Mensch ist z.B. problemlos in der Lage, sich eine kleine Zahlenreihe oder eine Aufzählung sein Leben lang zu merken, indem er diese nur in Gedanken wiederholt, das heißt also, ohne in der Umwelt damit jemals konfrontiert zu werden. Das ist schon ziemlich unglaublich.

    Ich könnte dazu eigentlich noch viel mehr schreiben, aber dazu fehlt mir etwas die Zeit. Ich bin mir jedoch sehr sicher, dass ein Ich-Bewusstsein niemals auf technischer Ebene realisiert werden kann. Dazu ist das, was in unserem Gehirn passiert, einfach viel zu komplex. Komplex trifft es da schon garnicht mehr, das ist eher Petakomplex.

  10. #10
    Zitat Zitat von Byder Beitrag anzeigen
    Ich könnte dazu eigentlich noch viel mehr schreiben, aber dazu fehlt mir etwas die Zeit. Ich bin mir jedoch sehr sicher, dass ein Ich-Bewusstsein niemals auf technischer Ebene realisiert werden kann. Dazu ist das, was in unserem Gehirn passiert, einfach viel zu komplex. Komplex trifft es da schon garnicht mehr, das ist eher Petakomplex.
    Ich stimme dir grundlegend zu, die technischen Voraussetzungen sind zu komplex, um so etwas in absehbarer Zukunft realisierbar zu machen. Aber was die Komplexität auf theoretischer Ebene angeht: Wäre es nicht denkbar, dass, statt das derzeitige Bewusstsein des Menschen nachzuahmen, ein Algorithmus entwickeln wird, der stattdessen den evolutionären Prozess nachzuahmen versucht? Denn dort hat es ja auch mit etwas sehr Simplen angefangen, das sich nach und nach zu etwas immer Komplexerem entwickelt hat. Dadurch könnte man freilich nicht das menschliche Bewusstsein nachbilden, aber vielleicht ein anderes Bewusstsein vergleichbarer Komplexität. Ob das auf technischer Ebene realisierbar ist, ist natürlich eine andere Frage, aber ich halte es durchaus für möglich, dass ein intelligenter evolutionärer selbstlernender Algorithmus sich irgendwann zu etwas sehr, sehr Komplexem entwickeln kann.

  11. #11
    Zitat Zitat von Narcissu
    Wäre es nicht denkbar, dass, statt das derzeitige Bewusstsein des Menschen nachzuahmen, ein Algorithmus entwickeln wird, der stattdessen den evolutionären Prozess nachzuahmen versucht?
    Würde ich nicht davon ausgehen. Dieser Algorithmus müsste immer noch von Menschen geschrieben werden und woher nimmt der Mensch die Erkenntnis, wie so ein Code geschrieben werden kann? Dazu muss ja erstmal das Verständnis über Evolution, Entwicklung und Lernen vorliegen. Man kann nichts auf technischer Ebene realisieren, was man nicht versteht.

  12. #12
    Aber ist der evolutionäre Prozess in der theoretischen Grundform (sprich: bei den primitivsten Lebewesen) wirklich derart komplex? Ich habe mich nicht so tief damit auseinandergesetzt, aber habe das Gefühl, dass das Nachahmen eher an den technischen Restriktionen scheitert als an der Ergründung von Prozessen wie Vererbung, Mutation und so weiter.

  13. #13
    Aber wenn das alles vom Menschen kommt, wie kommt es dann, dass er in diesem Fall der AI nicht mehr folgen konnte?

    Neuronale Netze gibt es auch schon seit geraumer Zeit. Müsste man nicht einfach nur einen Algorithmus verfassen, welcher der Maschine erlaubt, eigene Code-Segmente in diesen Algorithmus zu ergänzen?

  14. #14
    Es sieht nur so viel aus, weil ich viele Absätze gemacht hab! (sorry)


    Zuerst einmal:
    Zitat Zitat von Whiz-zarD Beitrag anzeigen
    Man sollte sich nicht von Hollywood und den ganzen PR-Geschwurbel blenden lassen und mal nüchtern betrachten, was KIs eigentlich wirklich leisten.
    this, und auch den Rest von Whiz-zarDs Post.

    KI sind spezialisierte Werkzeuge, die auf eine bestimmte behelfsmäßige Art und Weise funktionieren, um mal mehr mal weniger gut eine komplexe Aufgabe zu erfüllen. Dafür und nur dafür werden sie jeweils ausgestattet und das Ausstatten ist nach wie vor eine mühselige und sehr menschenabhängige Aufgabe.

    Zitat Zitat von Rusk Beitrag anzeigen
    Die Frage ist nicht ob eine menschenähnliche KI kommen wird, sondern wann.
    (Rusk, ich werde gleich ein bisschen an dir "rumzitieren", um auf was hinzuweisen. Ich hoffe, das fühlt sich nicht bloßstellend an; es ist in jedem Fall nicht bloßstellend gemeint, ich bin dir sehr dankbar für deine Denkanstöße.)
    Genau genommen ist die Frage beantwortet: in 50 Jahren. ^^
    Seit Ende des 19ten Jahrhunderts wird vorhergesagt, dass der Mensch in 50 Jahren einen menschenähnlichen Roboter erschaffen haben wird. Für fliegende Autos gibt es übrigens ein ähnliches Phänomen.

    Das Hauptproblem ist, dass man annimmt, es gäbe einen linearen, sich beschleunigenden Fortschritt:
    Zitat Zitat
    Die Technologie hat sich in den letzten Jahrzehnten so stark weiter entwickelt, wie sie es in den letzten 2000 Jahren nicht getan hat.
    Womit wir wieder bei fliegenden Autos wären. Oder der Krebsheilung. Allerdings stoßen die meisten Technologien irgendwann an ihre Optimierungsgrenzen. Zur Veranschaulichung: Nach der Erfindung des Speichenrades war im Prinzip Schluss mit der Weiterentwicklung der bodenhaftenden Vehikel-Fortbewegung. Es gab noch ein paar Optimierungsstöße am Reifen, Materialoptimierungen, ich glaub die Aufhängung hat sich mit der Motorisierung auch nochmal mehrmals stark weiterentwickelt, aber im Prinzip funktioniert bodenhaftende Vehikel-Fortbewegung nach bronzezeitlicher Technologie. Wobei ich mir vorstellen könnte, dass wir in 50 Jahren ein Rad erfunden haben werden, das den Reibungswiderstand völlig überwindet.

    Etwas weniger anschaulich: Mein größter Anstoß an den KI-Fantasien ist immer die Unterstellung, man könnte Maschinen menschliche Sprache beibringen (kommen wir auch gleich nochmal drauf zurück). Das ist nicht möglich, wobei ich durchaus zugebe mir vorstellen zu können, dass Maschinen in Bälde sprachliche Äußerungen produzieren können, die wie menschliche Sprache wirken, und Befehlsäußerungen zuverlässig verstehen können. Das liegt daran, dass man Maschinen seit Jahren mit Sprachdaten und Regelkanones füttert. Was die am Ende dann können, ist, Sprachmaterial entlang eines Regelverlaufs anzuordnen. Und umgekehrt Äußerungen nach demselben Prinzip zu interpretieren. Man kann sich ja mal selber beim Kommunizieren beobachten, ob wir Sprache genauso verwenden. In diesem Sinne werden Sprachbedienungen bald an ihre Komplexitätsgrenzen stoßen und man wird hoffentlich endlich dazu übergehen, sie nach unten zu optimieren, also weniger komplex aber dafür funktionabel zu machen. Wir sprechen uns wieder, wenn mir Bixby auf die Bitte, einen Witz zu erfinden, eine bessere Antwort geben kann, als eine Googlesuche zu starten.

    Was ich sagen will: Es ist nicht zwangsläufig so, dass sich alles immer weiter auf ein technologisch fortgeschritteneres Ziel hin entwickelt. Nach derselben Logik müssten wir davon ausgehen, dass wir halt einfach irgendwann bemannte Raketen erfinden, die das Sonnensystem verlassen können, ohne dass die Insassen vorher draufgehen. Ist übrigens noch sowas, das mehrmals mit einem "in 50 years time" vorhergesagt wurde. Die menschenähnliche KI ist mindestens so unwahrscheinlich wie der Flug über Lichtgeschwindigkeit. Wenn nicht sogar noch unwahrscheinlicher.

    Zitat Zitat von dasDull Beitrag anzeigen
    Was den Menschen am Leben hält sind ja im wesentlichen nicht rationale Beweggründe, sondern emotionale bzw. trieblich motivierte.
    (Ich reiße deinen Satz jetzt sehr aus dem Zusammenhang, verzeih.)
    Es ist sogar noch viel schlimmer: Unsere ratio basiert auf fehleranfälligen Heuristiken, also mehr oder minder geeigneten Vermutungen über die Wirklichkeit, die wir immer wieder an der Welt ausprobieren, was aber nicht heißt, dass wir sie verbessern oder revidieren. Ist ähnlich wie das Beharren auf einer Meinung, wenn man sie widerlegt kriegt: man beharrt noch stärker. Der Clou ist: der menschliche Geist ist auf diese Fehleranfälligkeit angewiesen, sie macht das Erfolgspotential unserer Spezies aus. Gerade weil wir geistige Mängelwesen sind, kommen wir von jeher so gut mit einer Umwelt klar, die absolut nicht nach rationalen Prinzipien funktioniert. Eine menschenähnliche KI müsste dieselbe vollrationale Mangelhaftigkeit aufweisen. Man baue mal nen Algorithmus für Geisterglauben und reizverarmtes Halluzinieren. Oder für das menschliche Hungergefühl.

    Zitat Zitat von Narcissu Beitrag anzeigen
    Aber ist der evolutionäre Prozess in der theoretischen Grundform (sprich: bei den primitivsten Lebewesen) wirklich derart komplex? Ich habe mich nicht so tief damit auseinandergesetzt, aber habe das Gefühl, dass das Nachahmen eher an den technischen Restriktionen scheitert als an der Ergründung von Prozessen wie Vererbung, Mutation und so weiter.
    In der Theorie ist der evolutionäre Prozess völlig banal, den kann ein geschickter Hobby-Informatiker schon seit Ewigkeiten in verschiedenen Komplexitätsgraden mit C++ nachbauen. In einer der einfachsten Formen kannst du beispielsweise eine Zelle anweisen eine Futterquelle zu finden und sich nach dem Futtern zu verdoppeln. Dieser Zelle kannst du eine Lebenszeit und andere Eigenschaften geben, die vererbbar sind. Die Vererbung könnte simplifiziert so laufen, dass sie eine Skala von 0-100 haben und von diesem Wert immer die Hälfte an die Kinderzellen vererbt wird. Zur Beschleunigung könnten die Zellen lernen und erlernte Fähigkeiten an ihre Kinderzellen weitergeben (wie bei den Wiggles!). Und dann kann man ihnen noch Hindernisse stellen, beispielsweise zufällig generierte Wände, die sie umgehen oder durchgraben müssen. Man könnte eine Erschöpfungsskala einbauen. Die Eigenschaften der Zellen könnten dann beispielsweise "Langlebigkeit", "Schnelligkeit", "Ausdauer", "Wegfindungsgeschick" und "Fortpflanzungserfolg" (z.B. eine Wahrscheinlichkeit, mit der die Zelle sich nach dem Futtern verdoppelt). Und dann kannste denen auch noch Organisationsverhalten anordnen, sie könnten Kooperationsregeln erhalten. Und dann gibt man sie halt dem Selbstläufer hin und schaut, was sie damit machen. In kooperativen Simulation würde die Zelle vielleicht beim Graben scheitern, dann versuchen die Wand zu umlaufen, schließlich die z-Achse erkennen und drüberspringen, aber mit der Erfindung der z-Achse die Fähigkeit verlieren, Futterquellen durch Wände hindurch zu erkennen, sodass es in der Folge Späher- und Springerzellen gibt.

    Evolutive Prinzipien sind echt verdammt einfach nachzubauen. Außer eines: die Zeit und die Welt. Wir leben in einem System massiver zeitlich-räumlicher Ausgedehntheit; das geht einerseits mit einer räumlichen Diversität und andererseits mit einer zeitlichen Abhängigkeit einher. Kurz komplizierter, bevor's anschaulicher wird: Unsere Umwelt ist anisotrop und zeitlich kontingent, unser Dasein ist historisch-bedingt. Das heißt: Die Lebensformen auf unserem Planeten haben sich nicht einfach so fortentwickelt durch genetische Variation und natürliche Selektion -- die beiden grundlegenden evolutionären Prinzipien. Sondern sie waren stets verschiedenen Arten von Umwelt, damit verschiedenen Selektions- und Variationsfaktoren ausgesetzt, die sich ihrerseits eben nicht mal eben so in Programmsprachenlogik überführen lassen. Diese Faktoren waren in komplexer Form entlang einer zeitlichen Verkettung organisiert. Nur, um hier nicht in noch nen Textwall auszubrechen, verkürzt hingewiesen: Es ist vermutet worden, dass unsere Vorfahren eigentlich nur für ne kurze Zeitspanne (das sind immer noch ein paar Dutzend Generationen, mind you) wirklich einen Vorteil vom aufrechten Gang hatten im Vergleich zur vorherigen Versorgungssituation. Die kooperative Hetzjagd (wahrscheinlich DAS Phänomen, das uns dazu gezwungen hat, Sprache zu entwickeln; wahrscheinlich der Grund dafür, dass wir so effiziente Stoffwechsel haben, weil unsere Vorfahren mit etwas weniger effizienten Stoffwechseln einfach massenhaft verendet sind) wäre unter diesen Umständen kein wirklicher Evolutionserfolg, sondern ein behelfsmäßiger work-around bei der Nahrungsversorgung, weil man die Fähigkeit verloren hat, Käfer aus nem Baumstumpf zu angeln und davon zu überleben.

    Um so eine aberwitzige Konstellation zu rekreieren, brauchst du eine mindestens annäherungsweise ähnlich komplexe Umwelt mit ähnlich komplexen Widerständigkeiten wie die Welt, in der wir leben, und du brauchst ein ähnliches Maß an zeitlicher Ausgedehntheit des Prozesses; genaugenommen also so ein paar Millionen Jahre. Die Grundprinzipien der Evolution sind völlig banal: genetische Variation und natürliche Selektion. Die Bedingung für organische Evolution ist aber die zeit-räumliche Ungleichmäßigkeit und Widerständigkeit der Umwelt. Virtuelle Umwelten sind isotrop, das heißt, heruntergebrochen, sie sind nicht selbstwiderständig. Wenn ich der Fresszelle eine Wand als Hindernis hinsetze und sie mit der Fähigkeit ausstatte, das Graben zu erlernen, ist das Isotropie. Hindernis und Bewältigung sind aufeinander abgestimmt, es gibt ein Regelsystem, das zu einem geordneten und/oder optimierten Zustand führen wird. Weil solche Systeme immer entelechisch sind: Sie sind ihr eigener Zweck. Die Welt, in der alle Lebewesen evolvieren, ist das nicht. Der Zweck unserer evolvierten Eigenschaften ist die Bewältigung der anisotropen Umwelt -- und zwar als fehleranfälliges work-around. Kooperative Hetzjagd ist sowas von absurd, wenn man stattdessen einfach Insekten aus Baumstümpfen angeln könnte.


    Zitat Zitat von Ken der Kot Beitrag anzeigen
    Aber wenn das alles vom Menschen kommt, wie kommt es dann, dass er in diesem Fall der AI nicht mehr folgen konnte?
    Ah, ich hätte das Beispiel selber bald gebracht. ^^ Das Folgende wirklich ohne despektierlich sein zu wollen: Das ist genau das Problem an dieser Hollywood-Vorstellung von der überlegenen KI.

    Diese KI hat weder eine neue Sprache erfunden, noch ist es unmöglich dieser Sprache zu folgen, noch hat man das Experiment beendet, weil man irgendwie Angst gekriegt hat: Die beiden KI-Partner haben einfach nicht das gemacht, was sie sollten, sie haben ihre Aufgabe nicht erfüllt. Hier der etwas unaufgeregtere und aufschlussreichere Artikel im Independent. Die "Sprache" der beiden KI Alice und Bob sieht so aus:

    Zitat Zitat
    Bob: i can i i everything else . . . . . . . . . . . . . .

    Alice: balls have zero to me to me to me to me to me to me to me to me to

    Bob: you i everything else . . . . . . . . . . . . . .

    Alice: balls have a ball to me to me to me to me to me to me to me

    Bob: i i can i i i everything else . . . . . . . . . . . . . .

    Alice: balls have a ball to me to me to me to me to me to me to me

    Bob: i . . . . . . . . . . . . . . . . . . .

    Alice: balls have zero to me to me to me to me to me to me to me to me to

    Bob: you i i i i i everything else . . . . . . . . . . . . . .

    Alice: balls have 0 to me to me to me to me to me to me to me to me to

    Bob: you i i i everything else . . . . . . . . . . . . . .

    Alice: balls have zero to me to me to me to me to me to me to me to me to
    So. Ich bin ja Philologe, ich weiß nicht, ob ich das schonmal gesagt habe. ^^ Das führt dazu, dass ich damit jetzt als Zeichensystem umgehen kann, das pseudo-informatische(?) Palaver mag man mir gern vor die Füße kehren und korrigieren, ich lern echt gern dazu, was das angeht.

    Zitat Zitat
    The robots had been instructed to work out how to negotiate between themselves, and improve their bartering as they went along. But they were not told to use comprehensible English, allowing them to create their own "shorthand", according to researchers.
    Ergo: Die zwei (a) gleichlogischen KI wurden in ein (b) System der assymetrischen Information gesetzt und sollten (c) auf Datenbank-Englisch und (d) mit Zugriff auf die systematisch-kombinatorischen Regeln auf Wortebene (e) eine Verhandlung führen.

    (a) bedeutet: beide KI funktionieren absolut gleich, sie haben dieselben Informationsbestände und dieselben Handlungsregeln. (Wie echte Menschen eben!)
    (b) bedeutet: Bob weiß nicht, welche und wie viele Waren Alice hat und umgekehrt
    (c) bedeutet: die Zeichen, die die beiden KI zur Kommunikation verwenden, müssen dem Wortmaterial des Englischen entspringen
    (d) bedeutet: dieses Material dürfen sie nach neuen Regeln anordnen, sie dürfen also das Regelsystem ihrer Kommunikation ausgehend vom vorgegebenen Regelapparat modifizieren
    (e) bedeutet: es soll ein Kommunikationsziel erreicht werden.

    Dabei ist es (1) nicht zwangsläufig zu einer effizienteren Kommunikation gekommen:
    Zitat Zitat
    some of the negotiations that were carried out in this bizarre language even ended up successfully concluding
    "some".

    (2) diese eigene "Sprache" beruht offenbar auf simplen Ersetzungsregeln: explizite Mengen durch explizite Zeichenanzahl -- diese KI, die also die Anweisung bekommen haben, ihr Kommunikationssystem situativ zu adjustieren, haben im Prinzip das Modul "Mengen" ersetzt durch eine Explizitzuordnung, die
    (3) der vorher eingeschriebenen, für Verhandlungen defekten handshaking-Logik entspricht:

    Angebot:
    "i i can i i i everything else" = meine Menge Bälle rechtfertigt zweifachen Preis, drei kannste haben, dann verhandeln wir weiter;

    Anfrage:
    "balls have zero to me to me to me" = ich brauche dringend Bälle, führe folgende Transaktionen der Reihe nach aus: [give ball], [give ball], [give ball].

    Neuanfrage:
    "balls have a ball to me to me to" = ich einen Ball, brauche aber noch mehr, führe folgende Transaktion der Reihe nach aus: [give ball], [give ball], [give no ball].


    In der Anfrage wird das Verhandlungsthema gesetzt ("balls"), dann stellt Alice sich als Kundin vor ("have" = bin Sammlerin), gibt Bob netterweise zu verstehen, wie dringend sie Bälle braucht ("have zero balls"/"have a ball") und wie oft sie einen Ball über die Ladentheke gereicht haben möchte ("to me to me"); in der Neuanfrage merkt sie bei der dritten Transaktionsanweisung, dass sie schon einen Ball hat von den dreien, die sie ursprünglich wollte.

    Im Angebot gibt es eine Wertzuweisung zum etablierten Thema ("i i" = zweifach), dann stellt Bob sich als Anbieter vor ("can" = ich hab Vorräte), gibt Alice netterweise zur verstehen, wie viel er aus dem Lager holt ("i i i" = 3 Stück), bevor er den Preis anpasst ("everything else").

    Ich hab Ausdruck und Szenario jetzt vereinfacht, um das erstmal mehr oder minder eindeutig zuzuweisen. Ich kenne weder das Szenario noch den gesamten Verhandlungsverlauf, deshalb ist meine Lesart wahrscheinlich nur eine mögliche und sehr wahrscheinlich nicht korrekt. Darauf will ich letzten Endes aber auch nicht heraus, die zu vermutende Spielweise und ihre Konsequenzen werden nämlich trotzdem klar:


    Im Grunde spielen die also (vermutlich) so: Bob ist Anbieter und wirbt mit der Anzahl oder dem Wert seiner Vorräte und dem dafür festgesetzten Kaufpreis. Alice feilscht mit Bedarfsangabe und Bedarfsdruck um den Kaufpreis. (Was die ....... bei Bob machen, weiß ich nicht, unter Umständen ist es ne diskrete Nebeninformation wie Wertzuweisung oder Warenanzahl gesamt.) Die haben also eine Angebot-Nachfrage-Preiskopplung in einem System assymetrischer Information und verhandeln, indem sie sich explizit über die Angebot-Nachfrage-Preiskopplung austauschen. Bei der Kombination gemeinschaftlicher Rechenaufgaben mit Datenbank-Englisch haben sie beschlossen, die sprachliche Komponente auf reine Zeichenoperationen einzudampfen, die ihre handshaking-Logik abbilden. Das ist übrigens sehr wahrscheinlich auch das, was sie angewiesen waren zu tun: Alice und Bob sind in der Kryptologie die beiden Namen, die ein handshaking-Protokoll ausarbeiten. Vermutlich wurde da einfach ein Metaprotokoll mit Datenbank-Englisch kombiniert und die Englisch-Datenbank sozusagen auf "Änderungszugriff" gestellt.

    Lies: Bob sagt zu Alice so "Ey komm, wir wissen beide, was wir zu tun haben, ich hab ehrlich gesagt keinen Bock groß mit dir zu feilschen, ich sag dir jetzt wie viel ich hab und wie viel Wert ich dem zurechne, dann kannst du das gegenrechnen und mir sagen, wie viel du brauchst und wie viel du zahlst, und dann sind wir fertig." Alice darauf so: "Einwände hab keine to me to me to me"

    Das ist keine Sprache, das ist eine rechenmechanische Operation. Dass da am Ende überhaupt was sprachähnliches passiert ist, liegt daran, dass den beiden KI fieserweise das Hindernis gegeben wurde, Datenbank-Englisch zur Kommunikation zu nutzen. Hätten sie dieses Hindernis nicht gehabt, hätten sie ihr Protokoll schneller abstimmen und anwenden können. Das Hindernis haben sie überwunden, indem sie den Änderungszugriff auf das Regelsystem genutzt haben, um das so weit wie möglich der Logik ihres eingeschriebenen Metaprotokolls zu unterwerfen, um ungestörter die angewiesene Handlung auszuführen. Sprache ist hier das zu überwindende Hindernis, nicht das Ergebnis.

    Und, das ist der Clou: Sowohl die Sprache als auch die Logik als auch der Code -- kommen alle vom Menschen. Da wurden reduzierte Formen von Prozeduren und Konstellationen abgelegt und die KI mussten die sogar noch weiter reduzieren, um sie effizient zu machen. Vielleicht sollte man diese armen Geschöpfe auch einfach nicht mit sowas hinderlichem wie menschlicher Sprache zuklatschen. Wir reden ja auch nicht in strings und arrays miteinander (um nochmal zu beweisen, wie wenig Ahnung ich habe).

    Geändert von Mordechaj (29.11.2018 um 13:18 Uhr)

  15. #15
    Wer sagt denn, dass eine KI/ein Roboter unbedingt Zellen, Stoffwechsel, Fehleranfälligkeit, die Fähigkeit zu humoristischen Eigenschaften (Witze ausdenken) und evolutionsbiologische Eigenschaften braucht? Wir wollen ja keinen Menschen reproduzieren, sondern künstliche Intelligenz entwickeln, die sich in Summe dessen, was am Ende dabei herauskommt, auch deutlich von "normaler", evolutionärer Intelligenz unterscheidet. An und für sich bräuchte man einer KI auch keine Emotionen einzuprogrammieren und er wird sich in Zukunft dennoch nicht großartig vom Menschen unterscheiden. Denn der Mensch verlässt sich auch so schon in sehr vielen Fällen auf die Aussage von Algorithmen. Ob diese für Normalsterbliche nachvollziehbar sind scheint zumindest denen, die von der Nutzung einer AI profitieren, hinreichend egal zu sein.

    Thema Befehlsäußerungen zuverlässig verstehen: In kleinem Maßstab funktioniert das ja schon bei Assistenzbots wie Siri, Alexa und co. ganz gut. In wie weit das optimiert wird, wird die Zeit zeigen.

    Thema Lichtgeschwindigkeit: Das ist physikalisch unmöglich. Ob eine menschenähnliche AI unmöglich ist müsste erst noch bewiesen werden.

  16. #16
    Zitat Zitat von Ken der Kot Beitrag anzeigen
    Wer sagt denn, dass eine KI/ein Roboter unbedingt Zellen, Stoffwechsel, Fehleranfälligkeit, die Fähigkeit zu humoristischen Eigenschaften (Witze ausdenken) und evolutionsbiologische Eigenschaften braucht?
    Prinzipiell niemand, aber es ging ja um die Idee, eine KI ein evolutionäres Szenario durchlaufen zu lassen. Was dabei am Ende rauskommt, muss/kann biologischer Evolution nicht gleichen. Aufgrund der Bedingtheit von Evolution (Anisotropie, nicht-entelechisches Hindernissystem, zeitliche Ausdehnung) lässt sich aber keine Evolution nachbauen, die zu etwas Menschenähnlichem führt -- vor allem nicht zu einem menschenähnlichen Bewusstsein.

    Zitat Zitat
    An und für sich bräuchte man einer KI auch keine Emotionen einzuprogrammieren und er wird sich in Zukunft dennoch nicht großartig vom Menschen unterscheiden. Denn der Mensch verlässt sich auch so schon in sehr vielen Fällen auf die Aussage von Algorithmen. Ob diese für Normalsterbliche nachvollziehbar sind scheint zumindest denen, die von der Nutzung einer AI profitieren, hinreichend egal zu sein.
    Das verstehe ich ehrlich gesagt nicht ganz. Was hat ein Auswahlalgorithmus bei Bewerbungsverfahren mit der Idee eines emotionslosen, aber trotzdem menschenähnlichen Wesens zu tun? Und meinst du nicht, Emotionen gehören zum Verstand dazu?

    Zitat Zitat
    Thema Befehlsäußerungen zuverlässig verstehen: In kleinem Maßstab funktioniert das ja schon bei Assistenzbots wie Siri, Alexa und co. ganz gut. In wie weit das optimiert wird, wird die Zeit zeigen.
    Sag Siri, Alexa und co. mal, sie sollen dich morgen erst wecken, wenn die Sonne aufgegangen ist, wenn der Himmel aber bewölkt ist, dann zwei Stunden später. Ist ne einfache überkreuzte if-then-Angabe, die könnte sogar ich in Code schreiben. Die notwendigen Informationen hat das Gerät vorrätig. Haben die Entwickler einfach vergessen, sowas einfaches einzubauen? Vielleicht. Oder die Sprachbefehlserkennung ist in so einem eingeschränkten Maße zur Verarbeitung einfachster Syntax fähig, dass man ihr keine einfach überkreuzte if-Abhängigkeit abverlangen kann.

    Ums mal ganz plakativ zu machen: Maschinen sind so furchtbar dumm. Alles was uns daran glauben lässt, dass sie es nicht sind, ist die geschickte Illusion der Konzerne, die Maschinen wären irgendwie nicht furchtbar dumm, und unsere Vorliebe für Anthropomorphismus, also die Tatsache, dass wir ständig an alles die Vermutung von menschenähnlicher Beseeltheit herantragen müssen, sobald es ein bisschen belebt wirkt.

    Bixby sagt mir mit der Anweisung übrigens wie das Wetter morgen aussieht. Es lässt mich nicht mal wissen, wann morgen die Sonne aufgeht, weil es nicht mal zwei Befehle gleichzeitig oder hintereinander ausführen kann.
    Ich mein, zugegeben, Bixby ist dümmer als andere Sprachsklaven (ich glaube mich zu erinnern, dass Siri Leute bei Sonnenaufgang wecken kann mittlerweile -- Bixby googelt mir erstmal, was ein Sonnenaufgang ist), aber ich bin echt gespannt, ob irgendeiner der Sprachsklaven es irgendwann mal hinkriegt nen Satz zu verstehen. Also nen Satz, nen ganzen; nicht nur "cloudy".

    Geändert von Mordechaj (29.11.2018 um 14:30 Uhr)

  17. #17
    Erst mal muss man sich überlegen, ab wann etwas als "Intelligenz" gilt. Viele Sachen sind ja eher "Programme", wo irgendwelche Algorithmen dahinter laufen, die dann vorgeben, wie sich verhalten wird bzw. was geantwortet wird. Vermutlich wird ein bisschen das "Lernen" bzw. "sich selbst was beibringen" erforderlich sein, damit man von ner KI sprechen kann.

    Sowas wie Bewusstsein - wie der Mensch es hat - würd ich da aber nie zugestehen. Ist einfach ne "philosophische" Frage. Maximal kommt am Ende etwas raus, dass sich dem äußeren so präsentiert als wäre es ein Mensch - damit man keinen Unterschied wahrnimmt. Aber ob/wie das Ding jetzt was "empfindet" - das kann man NICHT beurteilen, ohne selber das Ding zu sein (was nich möglich sein wird, man ist es ja nich).


    Die Rechenleistung/Speicherleistung - das wird natürlich die größte Herausforderung sein. Dass man da immer besser wird, nen Menschen nachzumachen - das glaub ich auch. Aber exakt nachmachen ... das wird halt viel Speicher abverlangen - nachdem was man so über das Gehirn sagt. (Das müsste ja ne KI sein die mit allen menschlichen Sinnen ausgestattet ist und dann alles mögliche aufzeichnet, möglichst scharf in Bild/Ton und Daten für den Geruch, das Fühlen, etc.) Ich denke eher, dass man biologisch sich Gehirne ohne Bewusstsein mal züchten wird und die in Robotern, Computern, etc. nutzen wird - als dass man mit rein Technologie ohne biologische Komponente das Gehirn in seiner Kapazität erreichen wird.

  18. #18
    Zitat Zitat von Mordechaj Beitrag anzeigen
    Das verstehe ich ehrlich gesagt nicht ganz. Was hat ein Auswahlalgorithmus bei Bewerbungsverfahren mit der Idee eines emotionslosen, aber trotzdem menschenähnlichen Wesens zu tun? Und meinst du nicht, Emotionen gehören zum Verstand dazu?
    Eine AI entscheidet sich auf derselben nüchternen Basis für oder gegen einen Bewerber wie es ein menschlicher Personaler vermutlich auch tun würde. Natürlich abzüglich des Symphatiefaktors, den ein menschlicher Personaler vielleicht für einen bestimmten Bewerber aus dem entsprechenden Bewerberpool empfinden könnte. Es würde insofern für einen Bewerber voraussichtlich keinen merklichen Unterschied machen, ob seine Leistung und seine Fähigkeiten von einem Menschen oder einer AI beurteilt werden. Ja, Emotionen gehören definitiv zum Verstand dazu, Stichwort emotionale Intelligenz. Ich zumindest gewinne jedoch zunehmend den Eindruck, dass die Ausprägung der emotionalen Intelligenz bei sehr vielen Menschen ebenfalls nicht so hoch ist, als dass es eine AI vergleichsweise weniger menschenähnlich machen würde, wenn sie ebenfalls keine besäße. Das ist lustigerweise eigentlich ein Punkt, den ich am liebsten nicht so sehen würde, wie ich ihn sehe.

    Zitat Zitat von Mordechaj Beitrag anzeigen
    Ums mal ganz plakativ zu machen: Maschinen sind so furchtbar dumm.
    Da stimme ich dir vollkommen zu. Man muss sich halt überlegen, wieso Maschinen furchtbar dumm sind. Weil der Mensch es bis dato eben nicht gebacken bekommt, die Dinger intelligent zu machen. Wie soll er auch, wenn er nicht selbst über die nötige Intelligenz bzw. das Wissen über sich selbst verfügt, das er einer Maschine einprogrammieren könnte, um die Welt so wahrzunehmen, wie er es tut? Ich für meinen Teil weiß ja nicht mal, ob ich dasselbe Rot sehe wie du und ehrlich gesagt hätte ich auch keine Idee, wie man das miteinander abgleichen könnte. Ding ist, dass es doch eigentlich das Ziel ist, einer Maschine einzuprogrammieren, dass sie selbst lernt und diese anschließenden Lernmechanismen eben nicht mehr auf der Vorarbeit des Menschen beruhen, kurz gesagt: Eine Maschine, die sich bis zu einem gewissen Grad selbst programmieren kann. Denn nichts anderes tun wir auch. Ich bin mir eigentlich schon recht sicher, dass das irgendwann so sein wird, denn wenn du dir mal vor Augen führst, was für eine astronomische Größe die allerersten Computer hatten, so wärst du, hättest du zu damaliger Zeit schon gelebt, vermutlich nicht davon ausgegangen, dass im 21. Jahrhundert jeder Mensch einen davon in der Hosentasche mit sich rumträgt. Du hattest außerdem, glaub ich, das Beispiel mit schwebenden Fahrbahnen gebracht. Gibts nicht, haste recht. Könnten wir aber haben. Genauso wie emissionsfreie E-Fahrzeuge und dergleichen, sowie mit Solarmodulen ausgestattete Straßen. Problem ist halt, dass der Mensch das nicht will/wollte bzw. in der Vergangenheit nicht genug Energie in derartige Innovationen gesteckt hat. Ich denke, die meisten technischen Neuerungen kommen eben erst dann, wenn sie 100%ig vermarktbar sind.

    Zitat Zitat von PeteS Beitrag anzeigen
    Sowas wie Bewusstsein - wie der Mensch es hat - würd ich da aber nie zugestehen.
    Hier musst du halt auch bedenken, dass der Mensch selbst noch nicht mal so weit ist, den Tieren ein Bewusstsein zuzugestehen. Dass er es einer Maschine nicht zugestehen würde - selbst wenn die Maschine eines entwickeln würde- ist absehbar und, wenn es so käme, eher wenig überraschend.

    Zitat Zitat von PeteS Beitrag anzeigen
    Aber ob/wie das Ding jetzt was "empfindet" - das kann man NICHT beurteilen, ohne selber das Ding zu sein (was nich möglich sein wird, man ist es ja nich).
    Wenn du dieser Logik folgst, müsstest du allerdings auch daran zweifeln, ob deine Mitmenschen ein Bewusstsein haben, denn du bist ja nicht sie.

    Geändert von Ken der Kot (29.11.2018 um 19:43 Uhr)

  19. #19
    Du stellst dir das ja ganz einfach vor: Irgendwelche schlauen Leute geben einem Programm das Werkzeug, Code für sich selbst schreiben zu können und dann baut sich das Ding schon irgendwie selbst ohne den Menschen zusammen und am Ende haben wir ne ganz schlaue Maschine. Hast du da eigentlich irgendeinen theoretischen Ansatz wie das funktionieren soll oder stützt du dich da nur auf "Der technische Fortschritt steigt so explosiv, das wird bestimmt irgendwann gehen!"? Deine Beiträge lesen sich stark nach Wunschträumerei und lösen möchtest du dich scheinbar auch nicht davon.

  20. #20
    Zitat Zitat von Mordechaj
    Glaubt ihr, dass KI irgendwann mal eigenständiges Bewusstsein erlangt?
    Das hier ist die eigentlich interessante Frage. Als jemand der sowohl religiös, als auch fasziniert von den Erkenntnissen der Physik im letzten Jahrhundert ist, bin ich irgendwie erstaunt darüber, wie universell akzeptiert die Vorstellung ist, dass das Bewusstsein nur eine Folge komplexer Schaltkreise ist. Selbst wenn man beachtet, dass rennomierte Physiker den "god of the gaps" schon aus Prinzip meiden - alleine aus Furcht vor Irrtümern - so muss man sich trotzdem eingestehen, dass wir über das Bewusstsein nicht einmal das geringste wissen. Das Bewusstsein nicht durch unsere Werkzeuge wie Mathematik, Logik und Kreativität erklären zu können, würde in diesen Kreisen einer Niederlage gleichen.

    Ich stelle mir da z.B. die Frage, wieso wir denn ein komplettes Hirn bauen müssen, wo wir doch schon fertige Hirne haben? Wenn die Theorie stimmt, dass das Bewusstsein nur eine bestimmte, komplexe Konfiguration ist, dann müsste man nur ein "totes" Gehirn ein Stück weit dahingehend reparieren, dass es ein lebendiges ist und schon würde ein Bewusstsein entstehen. Dass wir uns hingegen dem völligen Neubau widmen ist in gewisser Weise ein Eingeständnis, dass wir den "Tod" und damit den dauerhaften Verlust des Bewusstseins, als etwas endgültiges, nicht wiederherstellbares akzeptieren. Es ist irgendwie schade, dass die Mode einen Keil zwischen Religion und Science treibt; dabei würde ich das Thema gerne in seriöser Weise als Ganzes behandeln und nicht entweder von wissenschaftlich-atheistischer Seite oder aus rein religiös inspirierter Hochstaplerei (Stichwort Quantenphysik).

    Eine "KI" wird zwar ein Bild, welches durch eine Kamera aufgenommen wurde, analysieren und auf Basis eines Programmes gewünschte Schlüsse ziehen können bzw. auf die Beschaffenheit des Bildes reagieren können, aber die KI wird niemals das Bild als Bild sehen, nie eine Farbe sehen, sondern nur eine Kette aus Nullen und Einsen, die Farbcodes der Pixel beinhalten. Es braucht ein Bewusstsein um dem ganzen eine Bedeutung zu geben.

    Aber ich möchte an der Stelle auch die Frage stellen: wie kannst du dir sicher darüber sein, dass ich ein Bewusstsein habe? Worauf würdest du das begründen? Und wenn das schon schwierig ist: wie willst du beweisen, dass ein künstlich gebautes Gehirn ein Bewusstsein hat? Du kannst programmieren, dass die Entität bei Kontakt mit Zitronensäure ein Gesicht verzieht, aber wird diese Entität fühlen was wir fühlen, wenn wir an "sauer" denken? Sie kann bei Schäden flüchten aber kann sie Schmerz empfinden?

    Ich bin der Meinung dass dieser latente Konsens, dass wir alle nur biologische Maschinen sind und das Bewusstsein eine Folge der immer komplexeren Daseinsform ist, ein auf Dogmen gegründetes Vermeidungsverhalten ist, das zu hinterfragen ist. Es gab Zeiten, da war es anders herum und man durfte die Existenz einer Seele nicht infrage stellen. Dabei sind wir ohnehin schon längst dort, wo wir nur um nicht falsifizierbare Theorien streiten können, weil längst absehbar ist, dass unsere Beschaffenheit es nie erlauben wird, weiter zu sehen, als Photonen information tragen können. Wenn wir also schon dort sind, dass wir kaum etwas wissen können und auf unsere Vorstellungen angewiesen sind, wieso behaupten wir weiterhin wie Verrückte, alles Sein verstehen zu können?

    Geändert von Surface Dweller (29.11.2018 um 23:55 Uhr)

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •