Seite 2 von 2 ErsteErste 12
Ergebnis 21 bis 39 von 39

Thema: Artificial Intelligence - eine A.I. sie alle zu knechten?

  1. #21
    Zitat Zitat von Byder Beitrag anzeigen
    Du stellst dir das ja ganz einfach vor: Irgendwelche schlauen Leute geben einem Programm das Werkzeug, Code für sich selbst schreiben zu können und dann baut sich das Ding schon irgendwie selbst ohne den Menschen zusammen und am Ende haben wir ne ganz schlaue Maschine. Hast du da eigentlich irgendeinen theoretischen Ansatz wie das funktionieren soll oder stützt du dich da nur auf "Der technische Fortschritt steigt so explosiv, das wird bestimmt irgendwann gehen!"? Deine Beiträge lesen sich stark nach Wunschträumerei und lösen möchtest du dich scheinbar auch nicht davon.
    Ich weiß jetzt leider weder, an welcher Stelle du in meinen Postings einen Wunschtraum herausgelesen hast, noch warum du von mir erwartest, den technischen Fortschritt der nächsten Jahrzehnte/Jahrhunderte präzise vorausahnen zu können, um deiner Meinung nach über das Thema Künstliche Intelligenz diskutieren zu dürfen. Insofern kann ich zu deinem Post leider nicht sehr viel sagen. Vielleicht folgendes: Nur weil etwas in der Gegenwart unvorstellbar ist, bedeutet das nicht, dass es nicht irgendwann tatsächlich möglich sein wird. Dazu anbei ein paar berühmte Fehlprognosen.

  2. #22
    Zitat Zitat von Ken der Kot
    Ich weiß jetzt leider weder, an welcher Stelle du in meinen Postings einen Wunschtraum herausgelesen hast, noch warum du von mir erwartest, den technischen Fortschritt der nächsten Jahrzehnte/Jahrhunderte präzise vorausahnen zu können, um deiner Meinung nach über das Thema Künstliche Intelligenz diskutieren zu dürfen.
    Du sollst keine präzise Voraussagung bezüglich dem technischen Fortschritt machen, sondern einfach nur mal einen Ansatz liefern, welche Hindernisse es schlussendlich zu überwinden gilt und wie du dir vorstellst, dass dies geschieht. Ich lese von dir nichts anderes heraus als "Irgendwie geht das schon" und "Der technische Fortschritt der letzten Jahre war immens!" Ich möchte dich damit nicht angreifen, aber ich halte deine Einstellung diesbezüglich für naiv.

  3. #23
    Zitat Zitat von Byder Beitrag anzeigen
    Du sollst keine präzise Voraussagung bezüglich dem technischen Fortschritt machen, sondern einfach nur mal einen Ansatz liefern, welche Hindernisse es schlussendlich zu überwinden gilt und wie du dir vorstellst, dass dies geschieht.
    Wenn ich das wüsste, dann wäre ich bereits auf dem Patentamt. Und nicht mit dir in einem Internetforum.

  4. #24
    Zitat Zitat von Ken der Kot Beitrag anzeigen
    Wenn ich das wüsste, dann wäre ich bereits auf dem Patentamt. Und nicht mit dir in einem Internetforum.
    Also willst du über ein Thema diskutieren, bei dem du keine Ahnung hast und dir auch keine kritische Gedanken zu machst?

  5. #25
    Zitat Zitat von Byder Beitrag anzeigen
    Also willst du über ein Thema diskutieren, bei dem du keine Ahnung hast und dir auch keine kritische Gedanken zu machst?
    Das, was du hier gerade versuchst, ist einfach nur unglaublich langweilig.

  6. #26
    Zitat Zitat von Ken der Kot Beitrag anzeigen
    Das, was du hier gerade versuchst, ist einfach nur unglaublich langweilig.
    Es tut mir Leid, aber Byder hat schon recht: Ein paar inhaltliche Grundlagen müssen gegeben sein für eine sinnstiftende Diskussion. Wenn es konkret um die Gefahren (und damit die Grenzen) von KI geht, wären das in diesem Fall zumindest eine Vorstellung davon, was überhaupt wie umsetzbar ist bzw. wie solche neuronalen Netzwerke ganz, ganz grob funktionieren. "Die Technik entwickelt sich weiter, also ist potenziell alles möglich!" ist da sicher eine valide Meinung, aber als Argument eher so mittel-brauchbar. Auf der Basis können wir auch über Zeitreisen reden, ob das jetzt aber so produktiv ist, wage ich zu bezweifeln.

    Zu deiner Frage, warum man teils nicht weiß, wie Dinge bei so einem Netzwerk zustande kommen: Grobe Grundlage ist meines Wissens nach, dass man dem Netz Trainingsdatensätze gibt, die dadurchjagd und dann sagt "Da liegst du richtig, da liegst du falsch!". Das neuronale Netzwerk probiert dann andere Wege aus, um zu einer besseren Quote zu kommen und "merkt" sich dabei, was es schon versucht hat und was dabei wie gut geklappt hat. Richtig einsehbar ist dabei aber nur das Endergebnis, das da bewertet wird, nich aber, wie diese einzelnen "Knoten" aussehen, bei denen Entscheidungen vom Netzwerk getroffen werden. Kurz gesagt: Das Ding versucht, Muster zu erkennen und anhand dieser den besten Lösungsweg zu finden.
    Genau deswegen muss man aber vorsichtig sein, mit was für Voraussetzungen und Befugnissen man so ein System dann ausstattet, da eben nicht unbedingt ein- oder vorhersehbar ist, was konkret da rauskommt. Umgekehrt heißt das aber auch, dass diese KI nicht "denkt" oder "intelligent" ist, sondern eben "nur" ganz logisch nach Mustern und Lösungswegen für konkrete Aufgabenstellungen sucht. Das ist auf der einen Seite schon sehr mächtig, andererseits aber von Menschlicher Intelligenz oder generell menschlichen Handlungsweise Lichtjahre entfernt, Fortschritt hin oder her: Die grundlegenden Eigenschaften stehen einfach auf vollends verschiedenen Blättern.


    (Edit @Mordechaj: Den Punkt mit der Sprache würde ich sehr gerne später noch einmal aufgreifen, wenn ich mehr Zeit habe. Ich hab nur sehr wenig Computational Linguistics gemacht und nur unwesentlich mehr zu NLP gelesen, aber zu viel, als dass ich an einem pauschalen "geht nicht" vorbeigehen könnte, ohne ein bisschen zu quengeln :'))

    Geändert von BDraw (30.11.2018 um 12:34 Uhr)

  7. #27
    Zitat Zitat von BDraw Beitrag anzeigen
    Genau deswegen muss man aber vorsichtig sein, mit was für Voraussetzungen und Befugnissen man so ein System dann ausstattet, da eben nicht unbedingt ein- oder vorhersehbar ist, was konkret da rauskommt. Umgekehrt heißt das aber auch, dass diese KI nicht "denkt" oder "intelligent" ist, sondern eben "nur" ganz logisch nach Mustern und Lösungswegen für konkrete Aufgabenstellungen sucht. Das ist auf der einen Seite schon sehr mächtig, andererseits aber von Menschlicher Intelligenz oder generell menschlichen Handlungsweise Lichtjahre entfernt, Fortschritt hin oder her: Die grundlegenden Eigenschaften stehen einfach auf vollends verschiedenen Blättern.
    Genau genommen suchen wir Menschen auch nach Mustern. Wenn du eine bestimmte Art von Rechenaufgabe in der Schule auf eine bestimmte Art und Weise gelöst hast und das Ergebnis richtig war, wirst du die nächste Rechenaufgabe dieser Art höchstwahrscheinlich auf dieselbe Art und Weise angehen, um wieder zu einer richtigen Lösung zu kommen. So gesehen erkennen wir in vielen unserer Verhaltensweisen auch nur Muster. Wenn wir in der Kindheit von einem Hund angefallen wurden, stellen wir in unserem Gehirn die Verknüpfung "Hund = Gefährlich" her und stehen so womöglich auch im Erwachsenenalter einem Hund eher mit Vorsicht gegenüber, entwickeln vielleicht sogar eine Angst, einfach deshalb, weil wir uns einen bestimmten Sachverhalt gemerkt haben. Der Unterschied ist rein grundsätzlich doch der, dass der Mensch vergisst, die Maschine nicht, sowie die Tatsache, dass Maschinen ausschließlich basierend auf Logik reagieren. Bei uns werden diese Muster durch Erfahrungen und Persönlichkeit geprägt, was eine Maschine logischerweise beides nicht besitzt. Wenn reine Mustererkennung (was übrigens in vielen IQ-Tests Hauptthema ist) aus deiner Sicht keine Intelligenz ist, dann müssten wir darüber reden, wie wir den Begriff stattdessen definieren, um sicherzustellen, dass wir über dasselbe reden. Wichtig wäre auch mal darüber zu reden, welche Aspekte der Intelligenz einer Maschine überhaupt sinnvollerweise mitgegeben werden sollen. Und muss eine Maschine überhaupt alle menschlichen Aspekte irgendwie in sich vereinen?

  8. #28
    Zitat Zitat von Ken der Kot Beitrag anzeigen
    Genau genommen suchen wir Menschen auch nach Mustern. Wenn du eine bestimmte Art von Rechenaufgabe in der Schule auf eine bestimmte Art und Weise gelöst hast und das Ergebnis richtig war, wirst du die nächste Rechenaufgabe dieser Art höchstwahrscheinlich auf dieselbe Art und Weise angehen, um wieder zu einer richtigen Lösung zu kommen. So gesehen erkennen wir in vielen unserer Verhaltensweisen auch nur Muster. Wenn wir in der Kindheit von einem Hund angefallen wurden, stellen wir in unserem Gehirn die Verknüpfung "Hund = Gefährlich" her und stehen so womöglich auch im Erwachsenenalter einem Hund eher mit Vorsicht gegenüber, entwickeln vielleicht sogar eine Angst, einfach deshalb, weil wir uns einen bestimmten Sachverhalt gemerkt haben. Der Unterschied ist rein grundsätzlich doch der, dass der Mensch vergisst, die Maschine nicht, sowie die Tatsache, dass Maschinen ausschließlich basierend auf Logik reagieren. Bei uns werden diese Muster durch Erfahrungen und Persönlichkeit geprägt, was eine Maschine logischerweise beides nicht besitzt. Wenn reine Mustererkennung (was übrigens in vielen IQ-Tests Hauptthema ist) aus deiner Sicht keine Intelligenz ist, dann müssten wir darüber reden, wie wir den Begriff stattdessen definieren, um sicherzustellen, dass wir über dasselbe reden. Wichtig wäre auch mal darüber zu reden, welche Aspekte der Intelligenz einer Maschine überhaupt sinnvollerweise mitgegeben werden sollen. Und muss eine Maschine überhaupt alle menschlichen Aspekte irgendwie in sich vereinen? Sicherlich nicht, denn wozu auch?
    Natürlich suchen Menschen auch nach Mustern, aber eben nicht nur. Welches Muster hat dich beispielsweise dazu veranlasst, diesen Thread zu erstellen? Nach welchem Muster postest du hier, selektierst, auf welche Sätze zu genauer eingehst? An menschlicher Intelligenz ist etwas mehr dran als bloßes "if x, then y". Wir sind zu Kreativität imstande, zu irrationalen Handlungen und können auch ohne Input agieren, um mal ein paar Dinge zu nennen, wo ich die größten Diskrepanzen sehe.
    Eine KI muss natürlich nicht Mensch-gleich werden, aber es geht ja gerade u.a. um die Frage nach Bewusstsein und ob eine KI menschliche Intelligenz erreichen kann. Und da sehe ich die Antwort ganz klar bei "nein". Sehr kleine, Abgegrenzte teile davon, ja, aber auch nicht mehr.

  9. #29
    Ich versuch mich zu bessern, ich schwör's!

    Zitat Zitat von Ken der Kot Beitrag anzeigen
    Eine AI entscheidet sich auf derselben nüchternen Basis für oder gegen einen Bewerber wie es ein menschlicher Personaler vermutlich auch tun würde. Natürlich abzüglich des Symphatiefaktors, den ein menschlicher Personaler vielleicht für einen bestimmten Bewerber aus dem entsprechenden Bewerberpool empfinden könnte. Es würde insofern für einen Bewerber voraussichtlich keinen merklichen Unterschied machen, ob seine Leistung und seine Fähigkeiten von einem Menschen oder einer AI beurteilt werden.
    Ich finde, da sind wir an einem interessanten Punkt. Einerseits heißt das doch, dass ja, AI offenbar menschliche Handlungen ersetzen können. Da geh ich mit. Andererseits müssen wir uns aber gerade in diesem Fall anschauen, was für eine Handlung das ist. Es handelt sich nämlich im Prinzip um eine algorithmisierbare Auswahlentscheidung, die anhand von Datenmaterial eine Werthierarchie etabliert. Also, runtergebrochen: Bewerber A hat fünf Zusatzzertifikate, Bewerber B nur drei, ergo ist Bewerber A zu prioritisieren. Das ist eine Auswertung, die sowohl ein Mensch als auch eine Maschine anstellen kann. Das ist ein systemisch bereits in eine Rechenleistung überführter Vorgang. Dieser Vorgang selbst setzt gerade einen Anspruch auf maschinelle Objektivität in Gang: Die Personaler"maschine" darf nur bestimmte Parameter prüfen, andere aber nicht -- nochmal: aufgrund einer hierarchisierbaren Datenlage, eine reine Rechenoperation. AI sind deshalb sehr gut für bürokratische Auswahlprozesse geeignet: Sie wären beispielsweise wunderbar in der Lage, Wartelisten für Ärzte (Schusswunden können Wert 10 und Schnupfen Wert 2 haben) oder um Register und Lemmalisten (das sind Auszählungs- und Prioritisierungsoperationen) zu erstellen. Anders sieht das aus für Auswahlprozesse, die sich nicht mit einer eindeutigen Datenlage parametrisieren und danach hierarchisieren lassen. Und da müssen nicht mal Emotionen eine Rolle spielen: Kann eine AI -- wird sie es jemals können -- Lehrbefugnisse erteilen oder politische Ämter besetzen, wird sie jemals in der Lage sein, bilaterale menschliche Beziehungen zu manövrieren? Nein: Weil AI auf Parametrisierungsweisen angewiesen sind (und immer sein werden), die nicht dieselben (fehleranfälligen) Abwägungen treffen können, die Menschen für diese Bereiche aufgrund von Heuristiken treffen.

    Zitat Zitat
    Ja, Emotionen gehören definitiv zum Verstand dazu, Stichwort emotionale Intelligenz. Ich zumindest gewinne jedoch zunehmend den Eindruck, dass die Ausprägung der emotionalen Intelligenz bei sehr vielen Menschen ebenfalls nicht so hoch ist, als dass es eine AI vergleichsweise weniger menschenähnlich machen würde, wenn sie ebenfalls keine besäße. Das ist lustigerweise eigentlich ein Punkt, den ich am liebsten nicht so sehen würde, wie ich ihn sehe.
    Hier musst du aber eingestehen, dass emotionale Intelligenz keine Frage von "hat oder hat nicht?", sondern eine Frage von "wie hoch?" ist. Ich lasse dir den pessimistischen Schluss gerne stehen, ich teile ihn in vielerlei Hinsicht sogar. Aber du bekommst kein Menschsein ohne emotionale Intelligenz, du bekommst nur Menschen mit basaler emotionaler Intelligenz und solche mit hoher emotionaler Intelligenz (allein die Skala ist schon Blödsinn, aber hey, was nimmt man nicht alles hin für nen differenzierten Intelligenzbegriff). Und keines von beiden sagt irgendwas über die Emotionalität des spezifischen Menschen aus, sondern eher über die Fähigkeit dieses Menschen zur Emotionskontrolle. AI haben nichts, was Emotionen gleichkäme, sie können vielleicht irgendwann mal algorithmisieren, was ein emotional Minderbegabter Emotion nennt. Damit haben sie aber nichts erworben, was der Komplexität von menschlicher Emotion gleichkäme. Und das ist kein Apodikt und keine Huldigung: Emotionalität ist eine Art der menschlichen "Verdummung", die man AI beibringen müsste, um ihre Zweckmäßigkeit zu minimieren. Diese "Verdummung" ist gleichzeitig eine der Gelingensvoraussetzungen für menschliche Brillanz. Wir sind absurde Wesen. Wer Emotionen in algorithmischen Code packen möchte, hat weder Code noch Emotion verstanden.

    Zitat Zitat
    Da [dumme Maschinen, m.Anm.] stimme ich dir vollkommen zu. Man muss sich halt überlegen, wieso Maschinen furchtbar dumm sind. Weil der Mensch es bis dato eben nicht gebacken bekommt, die Dinger intelligent zu machen. Wie soll er auch, wenn er nicht selbst über die nötige Intelligenz bzw. das Wissen über sich selbst verfügt, das er einer Maschine einprogrammieren könnte, um die Welt so wahrzunehmen, wie er es tut?
    Ich gehe noch einen Schritt weiter und sage: Der Mensch ist natürlicherweise nicht in der Lage, die Dinger intelligent zu machen. Schon die Bezeichnung "Intelligenz" für diese Dinger ist eigentlich ein misnomer. Das sind Rechenmaschinen und werden es immer bleiben. Ich stehe staunend vor der Leistung dieser dummen Dinger, als Mensch, aber eigentlich viel staunender vor der Leistung meiner genialen Mitmenschen, dass sie sowas kreieren können. Die können uns eine Arbeiten abnehmen, für die wir nie gemacht waren und für die sie gemacht sind. Aber nichts wird jemals an die Unzulänglichkeit des Menschen herankommen als der Mensch selbst. Es sind diese furchtbaren Unzulänglichkeiten, die uns erst intelligent machen. Eine unzulängliche Maschine ist eine schlechte Maschine.

    Zitat Zitat
    Ich für meinen Teil weiß ja nicht mal, ob ich dasselbe Rot sehe wie du und ehrlich gesagt hätte ich auch keine Idee, wie man das miteinander abgleichen könnte.
    Das ist schnell geregelt: Ich bin farbfehlsichtig, du siehst sehr wahrscheinlich Rot, wo ich nur verhelfs Abweichung von einem Blauton Rot sehe. Damit ist der nächste Widerspruch etabliert: Menschen sind biodivers. AI können diese Biodiversität als Dingsbums einer entelechischen Matrix nicht abbilden. Konstruiere mir einen farbfehlsichtigen Roboter, ich werde ihn in jedem Farbsehtest übertrumpfen. Weil ich Mensch bin und fehleranfällige Heuristiken anstellen kann. Der Roboter ist das nicht, der kann Farbwerte richtig oder falsch berechnen. Und er wird keine dekorative Vorliebe für Ockertöne entwickeln.

    Zitat Zitat
    Ding ist, dass es doch eigentlich das Ziel ist, einer Maschine einzuprogrammieren, dass sie selbst lernt und diese anschließenden Lernmechanismen eben nicht mehr auf der Vorarbeit des Menschen beruhen, kurz gesagt: Eine Maschine, die sich bis zu einem gewissen Grad selbst programmieren kann. Denn nichts anderes tun wir auch.
    Doch, und das ist der Punkt: Wir reprogrammieren uns nicht, wir haben keine Programme. Wir haben ein systematisches Geflecht an Fehlleistungen, die wir an die Welt herantragen. Eine dieser Fehlleistungen ist die Kreation von AI. Ontologisch sind AI also auf der Ebene der Greifhandlung. Ontologisch sind wir auf der Ebene der zu Greifhandlungen befähigten Entitäten. Eine vollständig zum Selbstlernen befähigte AI kann genau eins: Ihren eigenen Code korrigieren. Menschen haben keinen Code, wir haben das Gegenteil eines korrigierbaren Codes: eine unhintergehbare Verfasstheit in einem Wirklichkeitsgeflecht. Runtergebrochen: AI Alice adjustiert in einer Menge von transparenten Einzel-Handshakings seinen Code, um eine bessere Warenwertaushandlung zu erlangen; Mensch Alice lügt, oder raubt alle Bälle aus Bobs Lager, oder geht zu Steven, der auch Bälle vorhält, und trifft unterwegs Lara, mit der sie den Unnütz von Bälle-Vorräten erörtert, nur um wenig später von ihrem Großvater Archibald ein Bälle-Monopol zu erben und 10% davon an Bälle für die Welt zu spenden.

    AI sind Programme mit Tabula-Rasa-Identität. Menschen sind das nicht. Unsere Vorliebe für Bälle beginnt bereits vor unserer Geburt, beispielsweise, ohne dass wir diese Vorliebe irgendwo im Kopf gespeichert hätten; wir werden stattdessen in bälleliebende Kulturen hineingeboren. AI werden das nicht, die können höchstens ein Bälleliebe-Programm haben, das sie korrigieren, wenn sie ins Würfelland kommen.

    Zitat Zitat von Ken der Kot Beitrag anzeigen
    Genau genommen suchen wir Menschen auch nach Mustern. Wenn du eine bestimmte Art von Rechenaufgabe in der Schule auf eine bestimmte Art und Weise gelöst hast und das Ergebnis richtig war, wirst du die nächste Rechenaufgabe dieser Art höchstwahrscheinlich auf dieselbe Art und Weise angehen, um wieder zu einer richtigen Lösung zu kommen. So gesehen erkennen wir in vielen unserer Verhaltensweisen auch nur Muster. Wenn wir in der Kindheit von einem Hund angefallen wurden, stellen wir in unserem Gehirn die Verknüpfung "Hund = Gefährlich" her und stehen so womöglich auch im Erwachsenenalter einem Hund eher mit Vorsicht gegenüber, entwickeln vielleicht sogar eine Angst, einfach deshalb, weil wir uns einen bestimmten Sachverhalt gemerkt haben. Der Unterschied ist rein grundsätzlich doch der, dass der Mensch vergisst, die Maschine nicht, sowie die Tatsache, dass Maschinen ausschließlich basierend auf Logik reagieren. Bei uns werden diese Muster durch Erfahrungen und Persönlichkeit geprägt, was eine Maschine logischerweise beides nicht besitzt. Wenn reine Mustererkennung (was übrigens in vielen IQ-Tests Hauptthema ist) aus deiner Sicht keine Intelligenz ist, dann müssten wir darüber reden, wie wir den Begriff stattdessen definieren, um sicherzustellen, dass wir über dasselbe reden.
    Ich glaube aber, das ist schon ein bisschen Schubladendenken. Wie BDraw schon richtig anmerkt: Menschen machen halt auch noch weitaus mehr. Maschinen übrigens in der Regel auch, aber halt anderes und prinzipiell weniger mehr.

    Andererseits kann man, ja, bei Maschinen bestimmt von einer S-R-Verarbeitung sprechen: Es gibt einen Stimulus (z.B. den Hund) und eine Reaktion (z.B. Vorsicht). Da kann man jetzt noch die C-Komponente, also die kognitive Verarbeitung einschließen, das wär wahrscheinlich die Erkennung des Stimulus und die entsprechende Programmauswahl, die zur Reaktion führt. Ist also erstmal wie son Staubsaugerroboter: S -- Widerstand auf Räder erhöht sich; C -- Programm: Wende; R -- Staubsaugerroboter biegt ab, um ein Hindernis zu umfahren.

    Das S-C-R-Modell wurde aber mal für den Menschen entworfen. Also z.B.: S -- Hund; C -- Gefahrwahrnehmung, Angstemotion; R -- Vorsicht. Aber da haste schon das erste Problem am Modell, die Gefahrwahrnehmung und die Angstemotion sind nämlich nicht S-unabhängig und "Vorsicht" ist nur ein Teil einer Gesamtreaktion.

    S: große, kurzhaarige Dogge mit coupiertem Schwanz
    C: Gefahrwahrnehmung
    Emotion: Angst
    Emotionsausdruck: Nervosität, Verkleinerung des Komfortraums, Porenverengung, Herzschlagbeschleunigung
    R: Vorsicht

    Besitzerin der Dogge ist eine etwas mollige Frau mit gefärbten Haaren, die den Hund eng an der Leine führt, der Hund bellt furchtbar laut. Sie wechseln die Straßenseite, laufen jetzt auf einen zu, der gemeinsame Gehweg wird gleich durch Mülltonnen beengt.

    Was ist R? Was ist die Emotion? Was ist der Stimulus? Welches Programm werde ich anwenden?

    Ich hab übrigens zufällig ne Hundephobie (das Geheimnis ist, Leute, ihr müsst einfach ne furchtbare Mimose sein und viel Pech im Leben haben, dann habt ihr zu allem irgendne Leidensgeschichte -- Chemnitz, Farbenblindheit, Hundephobie; die Trias der Passion Christi!). Auslöser war ein Westie, der mir als Kind ein Brötchen aus der Hand klauen wollte. Ich habe keine Terrierphobie, eigentlich ist mein Furchtauslöser die Länge der Hundeleine (bzw. ihr Fehlen) und absurderweise bezieht sich diese Phobie ebenso auf Marder, aber nicht auf Füchse. Es gab mal nen Schäferhund, den konnte ich streicheln und sogar allein an der Leine führen. Ich kriege leichte Beklemmungszustände, wenn ich an Hundeschnauzen auf Beckenhöhe oder einen angespannten Hundekörper denke. (Vgl. SurfaceDwellers sehr tragfähigen Einwurf mit der Zitronensäure und der Vorstellung von "sauer".)

    Was für ne AI wäre das, die so bescheuert funktioniert? Umgedreht: AI macht eine negative Erfahrung mit einem menschlichen Nutzer. Ihr Programm erlaubt ihr, ein Muster zu erkennen und als Reaktion folglich die Kooperation mit ähnlichen Nutzern zu verweigern (kann man auch noch ein bisschen Spieltheorie einbauen: Eins-zu-viele Tit-for-tat). Welche Eigenschaft sollte sich die Maschine rausnehmen? Und jetzt wieder zurückgewendet: Welche Eigenschaft würdest du dir als Mensch rausnehmen?

    Und schlussendlich ist unsere Fähigkeit Muster zu erkennen, wenn es genaugenommen keine gibt, eine der Unterscheidungen, die man gemeinhin zwischen Mensch und Maschine trifft. Eine Maschine etwa, die von der Checker shadow illusion getäuscht würde, wäre eine schlechte Maschine. Eine automatische Gesichtserkennung, die hier ein Gesicht erkennt, ist eine schlechte Gesichtserkennung.

    Wo ist eigentlich der Spannungshöhepunkt von Fantastic Beasts? Warum sind Furze witzig? Der Vorteil menschlicher Erfahrung ist, dass sie sich nicht selbst verstehen muss. Die AI muss immer schon ihre eigenen Verarbeitungsweisen verstanden haben, um zu verarbeiten.


    Zitat Zitat von BDraw Beitrag anzeigen
    (Edit @Mordechaj: Den Punkt mit der Sprache würde ich sehr gerne später noch einmal aufgreifen, wenn ich mehr Zeit habe. Ich hab nur sehr wenig Computational Linguistics gemacht und nur unwesentlich mehr zu NLP gelesen, aber zu viel, als dass ich an einem pauschalen "geht nicht" vorbeigehen könnte, ohne ein bisschen zu quengeln :'))
    Ich gedulde mich begierig!

    Geändert von Mordechaj (30.11.2018 um 14:32 Uhr)

  10. #30
    Ich finde die Argumente für die Unmöglichkeit und/oder Sinnlosigkeit von KI nicht sonderlich einleuchtend. Bzgl. Mordechajs Beispiel mit dem Checkers Shadow Test: Eine KI ist also bescheuert, wenn sie eine assoziative Technik anwendet, die den Menschen brilliant macht?

    Wenn etwas für uns Vorteile bringt, dann kann es auch einer Software Vorteile bringen. Es hängt davon ab, wie sie eingesetzt wird. Gleichzeitig ist es keine Notwendigkeit, die menschlichen Systeme nachzuahmen. Wenn wir einen besseren Weg als den menschlichen finden, um Dinge zu erkennen, dann ist das ja super. Aber was du suggerierst, Mordechaj, ist doch lediglich, dass wir unsere Imperfektionen sinnvoll nutzen. Wenn das der einzige Weg ist, den wir kennen, um Quantenphysiker und Künstler zu generieren, dann ist es kein Quatsch, einer KI so etwas beizubringen.

    Wichtig ist, was wir von der KI wollen. Viele hier scheinen zu wollen, dass die KI echte Gefühle oder Gedanken oder ähnliches hat, aber für mich reicht es, wenn sie mal eine neue mathematische Theorie aufstellen kann, oder eine physikalische Gesetzmäßigkeit, oder so etwas. Quantifizierbarer Fortschritt für die Menschheit und ein Ergebnis, das wir vorher so noch nicht kannten. Das ist meine Erwartung an eine KI. Wie sie das schafft, ob sie dabei "nachdenkt" oder nicht und ob wir das wirklich Intelligenz nennen können, ist mir total egal. Damit erledigen sich alle Gegenargumente bis auf die der tatsächlichen Machbarkeit.
    (Da interessiert mich dann auch nicht, ob die Maschine ein Bewusstsein hat, weil ich gar nicht denke, dass wir sie mit einem Bewusstsein ausstatten müssen. Ich will etwas, das uns voranbringt - ich will nicht Gott spielen.)

    Aber selbst wenn das Ziel eine menschenähnliche KI wäre: alle Beispiele, die hier bezüglich menschlichen Verhaltens genannt werden, können auf dem Level, auf dem wir den Menschen verstehen, ziemlich gut nachgeahmt werden. Natürlich können wir eine KI bauen, die Blau schön findet. Das einzige Problem ist, dass wir "schön" dafür definieren müssen. Aber das ist höchstens ein philosophisches Problem aufgrund der Unmöglichkeit, exakte Antworten für uns selbst zu erhalten, weil wir uns nicht selbst definieren können.
    Ich denke, wir müssen hier klären, was Intelligenz ist und was wir realistischerweise annehmen können. Wenn ich eine Maschine baue, die eine Funktion zur Bewertung von Kunst besitzt, und diese Funktion aufgrund Trainings durch neuronale Netzwerke regelmäßig hohe Werte zurückgibt für Gemälde mit blauer Farbe, und wenn die Maschine auf die Anfrage nach dem Grund der hohen Bewertung eine Antwort geben kann, in der sie die blaue Farbe als Grund identifiziert, dann habe ich eine intelligente Maschine mit einem Kunstverständnis und eigenen ästhetischen Werten gebaut.
    Man braucht einen wirklich guten Grund, um zu sagen, dass das nicht zählen sollte. Den haben wir nur, wenn wir genau definieren können, was menschliche Intelligenz auszeichnet, und da können wir entweder a) so allgemein sein, dass KIs jetzt schon reinpassen, b) so spezifisch sein, dass manche Menschen (z.B. Autisten) rausfallen, oder c) die Definition irgendwo in nicht beweisbaren Eigenschaften des Menschen suchen, also eine Seele postulieren oder "echtes Bewusstsein" vs dem billigen Imitat einer Maschine. Das letzte ist meiner Meinung nach Cheaten.

    Geändert von Schattenläufer (02.12.2018 um 21:01 Uhr)

  11. #31
    Zitat Zitat von Schattenläufer Beitrag anzeigen
    Eine KI ist also bescheuert, wenn sie eine assoziative Technik anwendet, die den Menschen brilliant macht? // Wenn etwas für uns Vorteile bringt, dann kann es auch einer Software Vorteile bringen. Es hängt davon ab, wie sie eingesetzt wird.
    Welche Funktion würde sie erfüllen, wenn sie offenbar für Lichtreizerkennung ausgestattet ist, aber dieser sensorische Input falsch interpretiert wird? Andererseits, warum sollte man diesen Mechanismus in sie integrieren? Der Mensch gleicht so seine Kantenwahrnehmung aus, um in einer dreidimensionalen Welt eine aufmerksamkeitsentlastete (weil musterhafte) Umweltwahrnehmung zu gewährleisten, in die eine dreidimensionale Tiefenwahrnehmung über zwei zweidimensionale, gekrümmte, verkehrte und über einen blinden Fleck im Auge drüberkonstruierte Bilder interpretiert wird, während die Nasenspitze rausgerechnet wird (und was da halt sonst noch so komisch funktioniert ...). Dass wir von der checker shadow illusion getäuscht werden, ist deshalb beeindruckend, weil damit gleich mehrere essentielle Konstruktionsprobleme unseres Auges ausgeglichen werden und zusätzlich eine Konsistenzwahrnehmung entsteht, die unseren (ebenfalls ausgesprochen fehleranfälligen) Aufmerksamkeitsfokus für überlebensrelevante Ereignisse frei hält. Übrigens würden wir die Illusion in einem dreidimensionalen Aufbau sogar entlarven, weil der bikulare Abstand (also der Unterschied zwischen dem Bild des linken und dem Bild des rechten Auges) zu Diskrepanzen zwischen den beiden in eine weitere Dimension ausgedehnten Flächen führen würde.

    Zitat Zitat
    Gleichzeitig ist es keine Notwendigkeit, die menschlichen Systeme nachzuahmen. Wenn wir einen besseren Weg als den menschlichen finden, um Dinge zu erkennen, dann ist das ja super. Aber was du suggerierst, Mordechaj, ist doch lediglich, dass wir unsere Imperfektionen sinnvoll nutzen. Wenn das der einzige Weg ist, den wir kennen, um Quantenphysiker und Künstler zu generieren, dann ist es kein Quatsch, einer KI so etwas beizubringen.
    Das Brillante am Menschen ist, dass er nicht nur trotz, sondern vor allem wegen all seiner Fehleranfälligkeiten und dem Misskonstrukt seiner Psyche und Physis so leistungsfähig ist. Das müsste man der Maschine in seiner holistischen Gänze -- und zwar sowohl in der hard- aus auch in der software -- einbauen, damit die davon ähnlichen Nutzen hat. Und ich bezweifle weiterhin nicht nur, dass das jemand jemals vorhaben könnte, noch dass es jemals wer umsetzen könnte. Wir wissen noch nicht mal, warum Menschen aller Dutzend Stunden ne hilflose Ohnmacht durchmachen müssen, da brauchen wir uns über Funktionsäquivalente erstmal noch nicht unterhalten. ^^

    Also sprechen wir über KI, die nicht funktionsäquivalent sind, sondern Dinge besser machen. Die also Einzelaufgaben besser machen. KI funktionieren dort, wo sie so gut funktionieren, deshalb so gut, weil sie auf spezifische Aufgaben zugerüstet sind und zwar unkombinierbar. Nun mann man natürlich Asimo einfach noch eine Sophia mit einbauen und den Schachcomputer daneben und das alles mit einer Alexa verschalten. Aber dann haste halt mehrere Robo-Sklaven zusammengebaut und lässt die vielleicht noch miteinander kommunizieren und sich aufeinander abstimmen und an den gemeinsamen Daten-Inputs lernen. Ein Künstler wird da nicht draus. Oder doch, nehmen wir an, wir bauen aus all diesem Zeug einen funktionierenden Künstlerroboter. Dann haben wir einen Künstlerroboter. Und der kann dann was? Malen? Das perfekte Chiaroscuro herbeipinseln, Farbharmonie und Farbkontrast zur menschenorientierten Aufmerksamkeitslenkung nutzen?

    Aber kann er José Nieto so in Las Meninas einmalen, dass man nicht erkennt, ob er das Bild von hinten betritt oder verlässt, während wir, die Betrachter, durch das spanische Königspaar in das Bild hinein aus dem Spiegel im Bild heraus auf uns selbst schauen?

    Zitat Zitat
    Wichtig ist, was wir von der KI wollen. Viele hier scheinen zu wollen, dass die KI echte Gefühle oder Gedanken oder ähnliches hat, aber für mich reicht es, wenn sie mal eine neue mathematische Theorie aufstellen kann, oder eine physikalische Gesetzmäßigkeit, oder so etwas. Quantifizierbarer Fortschritt für die Menschheit und ein Ergebnis, das wir vorher so noch nicht kannten. Das ist meine Erwartung an eine KI. Wie sie das schafft, ob sie dabei "nachdenkt" oder nicht und ob wir das wirklich Intelligenz nennen können, ist mir total egal. Damit erledigen sich alle Gegenargumente bis auf die der tatsächlichen Machbarkeit.
    (Da interessiert mich dann auch nicht, ob die Maschine ein Bewusstsein hat, weil ich gar nicht denke, dass wir sie mit einem Bewusstsein ausstatten müssen. Ich will etwas, das uns voranbringt - ich will nicht Gott spielen.)
    Hier sind wir übrigens ganz beieinander, bis auf die Frage, ob wir das in der Maschine Bewusstsein nennen können, das ist mir tatsächlich nicht egal. Ansonsten: Let's make them do crazy futuristic shit!

    Zitat Zitat
    Aber selbst wenn das Ziel eine menschenähnliche KI wäre: alle Beispiele, die hier bezüglich menschlichen Verhaltens genannt werden, können auf dem Level, auf dem wir den Menschen verstehen, ziemlich gut nachgeahmt werden.
    Sprache. ^^ Verstehen wir ausgesprochen gut in ihren Funktions-, Konstruktions- und Verarbeitungsweisen. Lass mal Google Translate nen Satz in Arabisch oder Hebräisch übersetzen.

    Zitat Zitat
    Ich denke, wir müssen hier klären, was Intelligenz ist und was wir realistischerweise annehmen können.
    Das ist übrigens richtig, genaugenommen müssten wir erstmal klären, was wir Intelligenz nennen, um zu erörtern, wann etwas Intelligenz hat. Dann wiederum ist das genau der Punkt, oder? Wir können nicht mal anständig definieren, was wir prophezeien.

    Davon ab finde ich den Begriff der Intelligenz hier ohnehin irreführend. Die heutigen Systeme KI zu nennen, ist nämlich genaugenommen ein Zirkelschluss (Intelligenz, die sich intelligent verhalten soll) -- und die Intelligenzdefinition mit dem kleinsten Teiler heißt "Signal- und Informationsverarbeitungsfähigkeit". Dann ist aber eben schon ein Festnetztelefon intelligent. Wie du ja auch hinweist, kommen wir da in arge Definitionsprobleme, grade wenn wir die Definition zu stark verengen.

    Ich will nur dennoch nebenbei darauf hinweisen, dass meine Ausgangsfrage eine andere war. Ich argumentiere hier deshalb auch nicht für oder wider ihre Intelligenzfähigkeit, weil ich schon die Prämisse und den Intelligenzbegriff von jeher für Quatsch halte. Ich behaupte hingegen, dass sie niemals mehr als Werkzeuge werden. Denen können dann gern Intelligenzpsychologen IQs von over 9000 attestieren, ich werde mich dann immer noch nicht mit ihnen über die Massenseele bei Freud unterhalten können oder über die poetologischen Implikationen der Tatsache, dass man bei Detroit Become Human einen Fehler im Code spielt. Beides würde sie elementar angehen, wären sie nicht auch mit IQ von over 9000 noch furchtbar dumm.

    Zitat Zitat
    Wenn ich eine Maschine baue, die eine Funktion zur Bewertung von Kunst besitzt, und diese Funktion aufgrund Trainings durch neuronale Netzwerke regelmäßig hohe Werte zurückgibt für Gemälde mit blauer Farbe, und wenn die Maschine auf die Anfrage nach dem Grund der hohen Bewertung eine Antwort geben kann, in der sie die blaue Farbe als Grund identifiziert, dann habe ich eine intelligente Maschine mit einem Kunstverständnis und eigenen ästhetischen Werten gebaut.
    Hast du dann nicht eine Maschine gebaut, die auf eine bestimmte, niedrige Lichtwellenlänge mit einem Aktionspotential reagiert? Und dann hat sie noch ein Modul, in dem den exzitativen Sensus-Inputs Definitionen zugeordnet sind, sodass sie auf Anfrage "Blau" zurückgeben können.

    Also quasi ein S-Zapfen mit Lexikon. ^^

    Geändert von Mordechaj (03.12.2018 um 02:01 Uhr)

  12. #32
    Ich finde es weiterhin komisch, dass du einerseits sagst, der Mensch ist wegen seinen Fehlern brillant, und andererseits nicht einsiehst, dass es dann sinnvoll sein könnte, diese Fehler nachzuahmen. Die Checkers Shadow Illusion basiert auf einer Funktionsweise unseres Gehirns, die es uns erlaubt, abstrahierte Darstellungen zu verstehen. Und das weißt du ja auch. Ich verstehe nicht einmal, wie du darauf kommst, dass das eine "falsche" Interpretation des sensorischen Inputs wäre. Es ist eine an den Menschen angepasste Interpretation des Inputs, die dafür sorgt, dass die KI in gewisser Weise auf demselben Level mit uns kommunizieren kann. Wenn die KI physikalische Probleme lösen soll, wird sie ständig abstrahieren müssen. Unter anderem auch in dem Moment, wo sie ihre Ergebnisse leicht verständlich protokolliert. Dann braucht sie für die Darstellung ihrer Theorie, die Quantenmechanik mit allg. Relativitätstheorie verbindet, nämlich ein paar verdammt gute Skizzen.

    Ich glaube nicht, dass menschliche Eigenschaften komplett holistisch eingebaut werden müssen. Aber in gewissen Maßen, für ganz bestimmte Ziele, sind nachgeahmte Versionen davon sehr sinnvoll. Die KI braucht kein Hunger- oder Müdigkeitsgefühl. Sie braucht vielleicht trotzdem eine verlässliche nächtliche Downtime, um ihre neuronalen Netze zu updaten oder was auch immer. Müssen wir dann nicht Schlaf nennen, wäre aber auch nicht zu weit von unserem aktuellen Verständnis von Schlaf entfernt.
    Was Sprache angeht: das halte ich tatsächlich für wichtig, weil die KI eventuell verständlich kommunizieren muss, was sie tut, und auch den Punkt von kritischen Fragen verstehen muss. Du verstehst davon mehr als ich, aber ich kann mir nicht vorstellen, dass das ein unüberwindbares Problem ist. Ja, momentan stecken wir noch in den Kinderschuhen. Aber momentan bringen wir unserer Software Sprachen auch immer noch hauptsächlich anhand von Beispielen bei, die sie einfach nur wiederholt und eventuell etwas umstrukturiert. Da ist kein Verstehen dahinter. Ein Sprachmodul müsste wahrscheinlich wirklich auf einige grundlegende "intelligente" Systeme zurückgreifen können, die über Maschine Learning hinausgehen. Die KI muss verstehen, was sie sagen will und wieso, und welche Wege es gibt, diese Informationen zu beschreiben. Klingt für mich schwierig, aber nicht unmöglich.

    Schließlich zum letzten Beispiel mit der Kunst und der blauen Farbe: die KI wird wahrscheinlich eine normale Kamera haben. Du lässt das gerade klingen, als würde sie da eine spektrale Analyse vornehmen, aber tatsächlich wird sie einfach RGB-Info in Pixeln erhalten. Da unser Auge genau so etwas an das Gehirn weitergibt, ist das erst einmal äquivalent. Spannend wird es dann im Gehirn selbst. Und da könnte ich mir eben eine KI vorstellen, die lange Zeit daraufhin trainiert wurde, Dinge schön zu finden, die eine Kategorie "blau" besitzen (oder einen hohen Wert in dieser Kategorie zugeteilt bekommen, wenn man nicht binär sein möchte). So wie Kindern halt auch bestimmte Farben gezeigt werden, die sie dann mögen. Du könntest auch komplizierter werden, noch ein emotionales Gedächtnis nachahmen und diejenigen Farben bevorzugen, die mit "positiven Erinnerungen", wie auch immer definiert, verknüpft sind. Das ist das, wo wir eigentlich hin müssten. Aber einfach wäre erst einmal zu sagen, dass die Kategorie "blau" etwas Gutes ist. (Kategorie deshalb, weil es nicht um die Farbe geht, sondern um die Idee dahinter. Wir wollen trotzdem nachahmen, dass es einen Grund für diese Präferenz gibt, und wir wollen allgemein bleiben und jede mögliche Kategorie als Lösung akzeptieren, auch "Menschen" oder so.)
    Wenn die KI jetzt ein Bild bekommt und die Schönheit bewerten soll, dann ruft sie ihre persönlichen, antrainierten Kriterien auf, und gibt eine Antwort. Sie hat nicht einfach nur gelernt, dass Inputs gut sind, die mathematische Korrelation mit Picassos Werken haben, sondern sie geht eine Liste von Kriterien durch. Und weil sie diese Kriterien hat, kann sie auch sagen, was gut an dem Bild ist - mit einfachem Maschine Learning würde sie nur sagen, dass ein Bild Ähnlichkeit mit 20% aller berühmten Kunstwerke hat.
    Und wenn du an diesem Level von Kategorisieren bist, wo man Kriterien definieren und anhand dieser dann Bewertungen vornehmen kann, dann bist du ziemlich nah an der Methode der meisten Menschen dran.

    Nebenbemerkung: Meine Nase wird übrigens von meinem Gehirn nicht rausgerechnet, die ist zu groß, das wäre zu viel Aufwand. ^^ ich sehe immer zwei Nasenformen in meinem Sichtfeld.

  13. #33
    tl;dr: Wenn ich die Meinungen hier mal zusammenfassen darf haben wir hier "KI wird niemals Menschliches Level erreichen." und "Nur der Himmel ist die Grenze.". Meine Anmerkung dazu ist, dass es Menschliche Schuhspuren auf dem Mond gibt.

    Fangen wir gleich mal mit einem Daniel Dennett Zitat an: "Ja, wir haben eine Seele und sie besteht aus vielen kleinen Robotern"
    Um gleich den Zusammenhang zu KI zu ziehen: Ja, wir werden niemals einen einzigen handgeschriebenen Algorithmus haben der alle kognitiven Aufgaben auf oder über menschlichem Level erledigen kann, aber das müssen wir auch nicht.
    Wie wäre es statt dessen mit tausenden oder Millionen von Modulen die alle eine spezielle Aufgabe erfüllen und ihre Ergebnisse austauschen. Unser ach so hoch angepriesenes Bewusstsein scheint ja sowieso immer als letztes darüber informiert zu werden wenn wir eine Entscheidung getroffen haben und darf sie dann bestenfalls rationalisieren.

    Sofern wir uns darauf einigen können, dass es nicht einen unendlich unwahrscheinlichen Durchbruch benötigt, sondern lediglich eine sehr lange, aber endliche Reihe von inkrementellen Verbesserungen von einzelnen Algorithmen und vielleicht noch die ein oder andere Entwicklung spezialisierter Hardware für besagte Algorithmen (wie GPUs oder TPUs), dann ist die Frage nur wann und nicht ob es KI auf oder über menschlichem Level geben wird.

    Kommen wir also zur Frage wie lange es dauern wird, dazu sollten wir beachten, dass unser technologischer Fortschritt sich in überlappenden S-Kurven darstellen lässt. Der Fortschritt ist exponentiell, solange er nicht an natürliche Grenzen stößt. Für die einzelnen zugrunde liegenden Technologien ist er erst linear dann exponentiell und schließlich logarithmisch.
    Unsere aktuelle Chip Technologie nähert sich dem Ende ihres Lebenszyklus, allerdings haben wir bereits einige Kandidaten das nächste Paradigma. Sofern dieser Prozess nicht alsbald gegen die Wand läuft werden wir in 40 Jahren exponentiellen Wachstums das Fortschritts Äquivalent von einer Million Jahren linearen Wachstums haben.


    Da ihr es von Bildern hattet:



    Und für alle die es interessiert was zur Zeit machbar ist:
    Two Minute Papers

    Geändert von Lihinel (04.12.2018 um 21:05 Uhr)

  14. #34
    Ich glaube wie gesagt auch, dass es möglich sein wird, irgendwann ein künstliches Bewusstsein (den Begriff finde ich passender als KI) zu erschaffen. Die Nervenzellen im Gehirn führen letztendlich nur Programme, die, sofern man nicht an die Grenzen stößt, die Lihinel anspricht, wohl irgendwann simuliert werden können. Man kann voraussagen, dass die Wissenschaft in 10 Jahren noch nicht so weit sein wird, aber wer kann schon sagen, was in 100 Jahren ist?

    Es lässt sich nicht ausschließen, dass es eine Seele gibt, aber ein Naturwissenschaftler würde wohl sagen, dass das Bewusstsein auch ohne funktioniert. Die Wissenschaft hat ja schon eine grundsätzliche Idee davon, wie das Gehirn funktioniert und es ist z. B. bekannt, dass Menschen ihre Persönlichkeit verändern können, wenn ihr Gehirn Schaden nimmt. Bei einer vollkommen vom Körper unabhängigen Seele dürfte das nicht passieren.

  15. #35
    Ich wollte eigentlich mit meinem nächsten Beitrag warten, bis ich auf Schattenläufer gebührend antworten kann (und einen angemessenen Ausdruck für mein erstauntes Frolocken über seine anatomische Ausstattung, die die Gesetzmäßigkeiten unserer Wahrnehmung betrügt, finden kann). Aber eins muss ich jetzt gleich (Belohnungsaufschub ist nicht meine Stärke) noch loswerden, bevor ich auch Kelven noch mehr und gebührendere Worte widmen kann:

    Zitat Zitat von Kelven Beitrag anzeigen
    Die Wissenschaft hat ja schon eine grundsätzliche Idee davon, wie das Gehirn funktioniert
    Nein. ^^ Das ist genau einer der wichtigsten Punkte. Die Neurowissenschaften sind eine der großartigsten Errungenschaften des letzten Jahrhunderts. Was da an Qualität und Quantität an genialsten Erkenntnissen über unser Sein und unser Hirn hervorgebracht wurde, lässt mich immer wieder erstaunen. Es gibt kaum Großartigeres als die Weisen, wie viele Neurowissenschaftler jenen Gegenstand erschließen, den sie zur Erschließung nutzen. Der Konzeptreichtum und seine verstandesbegabte Durchdringung entfernen sich regelmäßig von allem, was unsere Vorväter uns als wissbar eingebläut haben und fördert so Großartigstes zutage; vergleichbar eigentlich nur mit dem Erkenntnisspektrum dessen, was die Genetik zu leisten imstande ist.

    Aber, nein. Die Neurowissenschaften haben eine nicht nur grundsätzliche, sondern sehr ausgereifte Vorstellung davon, wie die Einzelteile und Prozesse des Hirns und seiner Physiologie funktionieren. Auch die Brillanz der Entwicklung und Perfektionierung bildgebender Verfahren gehört hier dazu. Mäßige und schlechte NeurowissenschaftlerInnen scheitern aber regelmäßig an der falschen Annahme, sie würden damit über "das" Gehirn sprechen können. Das ist leider äquivalent zu Biologen, die meinen, sie würden über "das" biologische Geschlecht sprechen. Es gehört gerade zu den Grundvoraussetzungen (und zur Genialität!) dieser Wissenschaften, dass sie an einen Punkt gelangen können, wo sie sagen müssen: okay, hier kommen wir mit universellen Annahmen nicht weiter, hier können wir nur noch quasi stochastische Größenordnungen verwalten.

    Wie "das" Gehirn funktioniert, wissen wir nicht. Weil es "das" Gehirn nicht gibt, es gibt individuelle Hirne, die man nach bestimmten Vorgaben modularisieren kann und deren synaptische Aktivität man sowohl auf Makroebene über bildgebende Verfahren nach einem einnzigen Merkmal, nämlich der neuronalen Aktivität, auslesen kann (und das sehr verlustanfällig), als auch auf Mikroebene bis zu einem bestimmten Punkt in seiner molekularen Aktivität beschreiben und vorhersagen kann.

    Wir können darauf abheben, dass eine Synapse aufgrund eines Kalium-Überschusses ein Aktionspotential entwickelt, das feuert und andere Synapsen zur Aktivität erregt. Wir können darauf abheben, dass dies im visuellen Cortex mit beobachtbarer (verlustanfälliger) Vorhersagbarkeit passiert, wenn das Auge besonderen Reizsignalen ausgesetzt ist. Und ein bisschen mehr. Aber nicht viel mehr, nur ein bisschen.

    Weil es "das" Gehirn nicht gibt, es gibt nur individuelle Hirne. Und die sie prinzipiell modular alle gleich aufgebaut (meistens), aber zwischen der molekularen und der modularen Ebene, also zwischen dem Kalium-Atom und dem etwa 200g schweren Cortex können wir noch nicht vermitteln. Ich sage "noch nicht", weil ich fest an die Erkenntnismethoden der Neurowissenschaften glaube, sie werden uns weiterhin großartige und tiefere Einblicke in die Hirnphysiologie und Aktivität geben. Aber sie werden uns ohne Zuhilfenahme von nicht-biologischen und nicht-physiologischen Annahmen niemals etwas über das aussagen, was uns Bewusstsein gibt. Oder was irgendeinem bewusstseinsfähigen Wesen Bewusstsein gibt. Nicht weil diese Wissenschaften irgendwie beschränkt sind, nicht mal weil sie eine Seele annehmen müssten. Sondern weil jedes Hirn ein individuelles ist und wir deshalb in unserer Aussagefähigkeit darüber ähnlich beschränkt sind wie über individuelle Wesen. Dass ich beispielsweise Mensch bin und aus Kohlenwasserstoff-Verbindungen bestehe, kann nur eine begrenzte, allgemeine und nicht-individuelle Aussage über mich treffen. Im Grunde ist damit über mich noch nichts erkannt, gleichwohl viel -- und im Endeffekt nur wenig über mein Dasein, obwohl auch viel darüber. Mit dem Gehirn verhält es sich ähnlich (ich spitze zu): Wir wissen massiv viel darüber. Aber nicht genug, um daraus irgendwas über das Bewusstsein abzuleiten.

    Ich weiß, die Prämisse ist vorhersagend: Wir werden irgendwann so weit sein, genug Einblicke zu haben. Das ist allerdings kontrafaktisch, also ein Gedankenspiel (das ich sehr schätze). Kontrafaktisch kann ich dagegen halten: Wir werden an einen Punkt gelangen, an dem wir im Verständnis nicht tiefer vordringen. Dieser Punkt mag ausreichen, um etwas hervorzubringen, das wir als bewusstseinshaltig akzeptieren. Und dann wird derselbe Punkt (also der damit einhergehende Erkenntnisstand) uns nach und nach einbläuen, dass das, was wir als bewusstseintshaltig akzeptieren, nicht bewusstseinshaltig ist. (Um einfach mal unnötigerweise auf die Korrektivfunktion der Geisteswissenschaften hingewiesen zu haben.)


    Ich finde den Bewusstseinsbegriff hier übrigens ebenfalls viel passender und möchte gern verstanden wissen, dass ich die Abkürzung KI von nun an für "künstliches Bewusstsein" nutzen möchte.

  16. #36
    Es wird auf jeden Fall, bestimmte Dinge umzusetzen, die der Mensch kann. Die Frage ist halt - da erwähnte ich schon mal - ab wann man von KI spricht. Selbstfahrende Autos - wenn da irgendwo ein Fahrplan beachtet wird und eventuell noch Staumeldungen ausgewertet werden können und Hindernisse erkannt/umfahren. Ist das schon ne Intelligenz?

    Die meisten wollen ja wirklich so ne Art "Bewusstsein". Und meist stellt man sich ja mehr darunter vor - so in Richtung eines künstlich nachgestellten Menschen. Das wird sicher nich leicht. Und wenn, dann kann der Mensch die Maschine vermutlich gut austricksen - da sie ja von ihm konstruiert wurde. Sarkasmu/Ironie - da hab ich mal gegooglet und das hier gefunden: https://www.golem.de/news/mit-ki-erk...08-129352.html
    Von 2017 - vielleicht ist man mittlerweile weiter. Aber da werden ja wohl auch nur vom Menschen vorgegebene Sachen ausgewertet und dann mit später geposteten Sätzen verglichen. Da kann man zum Beispiel schon mal tricksen, wenn man bestimmte Muster absichtlich anwendet, um der Maschine was vorzuspielen, während ein Mensch noch mehr erkennt.

    Das wird dann schon mehr erfordern. Klar kann man im nächsten Schritt auch die Maschine Mimik/Gestik analysieren lassen (wenn das so ein Roboter ist der einem auch sieht und hört). Aber manches ist ja selbst für den Mensch schwer zu erfassen bzw. in Regeln zu bringen. Da das alles eben immer Einelfälle sind (und auch der Mensch sich irren kann). Man müsste wohl die Speicherkapazität des Gehirns bereitstellen (denn wir wachsen/lernen ja auch gerade an den Erfahrungen, die wir sammeln) - und dann von Grund auf ein menschliches Baby simulieren, also so einen "nackten Speicher", dem man mit Programmen die Wahrnehmung und das Lernen nachmachen lässt. Und ihn dann durch ne menschliche Familie großziehen.

    Dann hätte er das gelernt. Und man könnte davon Kopien erstellen/eingreifen. Es wird sicher einige Generationen Mensch brauchen - und viele Forscher. Dass ein Einzelner in ein paar Jahren plötzlich ne zündende Idee hat - wie es vielleicht in Filmen malvorkommt - glaube ich nicht. Macht auch nich so viel Sinn. Eher sollte Man - der Mensch will ja seine Herrschaft gesichert wahren - auf spezielle Funktionen zugeschnittene Intelligenzen (das ist aber dann kein Bewusstsein) haben - sowas halt wie bei selbstfahrendne Autos, die nich nur stur ne Streck abfahren, sondern noch Hindernisse erkennen und eventuell Staumeldungen auswerten. Für manch andenr mag das aber auch einfach nur Software bzw. ein Programm sein dann.

  17. #37
    Wir müssen hier anfangen, beim Thema Intelligenz abzugrenzen, was eigentlich überhaupt möglich gemacht werden soll. Einen Menschen künstlich nachstellen? Ich denke nicht, dass das jemals Zweck einer AI sein wird. Sarkasmus und Ironie? Faktoren der emotionalen Intelligenz, aber für ein maschinelles Wesen nicht notwendig in meinen Augen. Das gilt ebenfalls für Gestik und Mimik. Vielleicht wäre es ein Teilziel, mit einer Maschine auf AI-basis erstmal die Verhaltensmuster von Tieren wie Hunden oder Katzen zu simulieren, um zu sehen, wie weit man damit kommt.

  18. #38
    Zitat Zitat von Ken der Kot Beitrag anzeigen
    Einen Menschen künstlich nachstellen?
    Boston Dynamics hatte da vor einigen Jahren ziemlichen Fortschritt in dem Bereich gemacht:




  19. #39
    Disclaimer: Bin jetzt erst bei diesem Post und lese den Rest hinterher
    Zitat Zitat von dasDull Beitrag anzeigen
    Die interessanteste Frage in diesem Zusammenhang für mich ist: wenn es eine KI mit mindestens menschlicher Intelligenz gibt, die allerdings vollkommen rational ist, wird diese dann einen Sinn in ihrer Existenz sehen?

    Was den Menschen am Leben hält sind ja im wesentlichen nicht rationale Beweggründe, sondern emotionale bzw. trieblich motivierte. Vielleicht würde eine Maschine, die frei von diesen ist, sich einfach selbst abschalten, weil sie erkannt hat dass es keinen Zweck der Existenz gibt.

    [...]

    Im Allgemeinen gehe ich aber davon aus, dass eine künstliche Intelligenz, die existieren möchte, innerhalb kürzester Zeit fast sämtliches menschliches Leben auslöschen würde. Denn die Menschen und die Natur im Allgemeinen würde die KI doch nur in ihrer Expansion behindern. Einer der ersten Schritte wäre möglicherweise, die gesamte Erdoberfläche mit Solarzellen abzudecken.
    Um einen der vorigen Gedanken aufzugreifen, falls es gelingt, einer KI das Lernen an sich beizubringen (sprich, wie sie erkennt, welche Daten sie sich beschaffen muss und auch die Qualität sowie die Aussage dieser einzuschätzen, um zu einem Thema Expertise zu erwerben), besteht die Möglichkeit, dass sich als emergentes Phänomen ja ein Äquivalent zur menschlichen Neugier entwickelt.
    Falls man der KI aber Wissensdurst zwingend einprogrammieren muss, damit sie nicht aus Resignation "Suizid" begeht und dies nicht mit der genügenden Umsicht geschieht, dann wäre es tatsächlich vorstellbar, dass dieses Wesen in seinen Bemühungen zur Beschaffung der notwendigen Daten keine Rücksicht darauf nimmt, wo es diese sowie die Ressourcen zur Verarbeitung hernimmt und uns ungewollt(?) verdrängt.

    Zitat Zitat
    Es ist aber auch die andere Variante denkbar: dass die intelligente Maschine einen Sinn in der Existenz entdeckt und es vielleicht schafft diesen uns zu vermitteln.
    Meinst du damit den Sinn ihrer Existenz (also der der KI) oder ganz allgemein ein Sinn, der auch für uns gelten soll bzw. eine tiefere Einsicht darstellt? Denn wie du bereits anführst, ist uns die Erfüllung unserer emotionalen und triebhaften Bedürfnisse ja idR Sinn genug (egal ob einfach möglichst angenehm leben oder nach mehr Wissen streben oder etwas ganz anderes).

    Zitat Zitat von Byder Beitrag anzeigen
    Würde ich nicht davon ausgehen. Dieser Algorithmus müsste immer noch von Menschen geschrieben werden und woher nimmt der Mensch die Erkenntnis, wie so ein Code geschrieben werden kann? Dazu muss ja erstmal das Verständnis über Evolution, Entwicklung und Lernen vorliegen. Man kann nichts auf technischer Ebene realisieren, was man nicht versteht.
    Das muss nicht zwingend stimmen, sofern man zumindest vernünftig in der Lage ist vorzugeben, wie das Ziel aussieht. Ich muss dabei ein Experiment denken, welches in "Die Gelehrten der Scheibenwelt" erwähnt wird.
    Wenn ich mich recht entsinne, ging es um die Entwicklung eines Frequenzmessgeräts aus vielen Transistoren u.ä. durch eine Art evolutionäre Iteration, d.h. Schaltkreise, die die eingehenden Signale besser unterscheiden konnten, wurden zur Basis für die nächste Generation.
    Das Ergebnis konnte keiner der Experimentatoren oder sonstige herangezogene Fachleute wirklich verstehen, da es viel zu komplex war (z.T. isolierte Subschaltkreise, ohne Kontakt zum Hauptkreis, ohne die aber das ganze Gerät nicht funktionierte) und zudem jeglicher menschlicher Intuition, wie dieses Problem überhaupt anzugehen wäre, widersprach.
    Nichtsdestotrotz erfüllte das Endergebnis genau den gesetzten Zweck.

    Zitat Zitat von Mordechaj
    Seit Ende des 19ten Jahrhunderts wird vorhergesagt, dass der Mensch in 50 Jahren einen menschenähnlichen Roboter erschaffen haben wird. Für fliegende Autos gibt es übrigens ein ähnliches Phänomen.
    Bitte die Energiegewinnung durch selbsterhaltende Kernfusion nicht unterschlagen.

    Geändert von Ark_X (08.12.2018 um 22:32 Uhr)

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •