Nachdenken über Denkmaschinen

image_pdfimage_print

animal-17474_640Die Süddeutsche Zeitung erwirbt sich weitere Verdienste mit ihren Artikeln über die Computerdenke (16.1.). Es geht um die Edge Question 2015, Was denken Sie über Maschinen, die denken? (Bild: PublicDomainPictures, pixabay).

Jedes Jahr stellt der Literaturagent John Brockman bei Edge eine Frage, dies Jahr über künstliche Intelligenz. Bei Edge  sind die Antworten jetzt auch online (17.1.),  Annual Question – WHAT DO YOU THINK ABOUT MACHINES THAT THINK? Am interessantesten sind die Beiträge der Gefragten, siehe Contributions.

Gelernter

Dort kann man sich 176 Antworten anschauen. Die SZ hat eine Auswahl getroffen, von der wir eine Sub-Auswahl vorstellen. Zuerst der Macher David Gelernter, ein bekannter Computerwissenschaftler mit Why Can't "Being" Be Computed? Why Can't "Happiness"? Zu deutsch Unberechenbar. Die Aussage:

Das Sein lässt sich genauso wenig berechnen wie das Glück, weil beides als "Zustand eines physischen Objekts" außerhalb der Berechenbarkeit liegt. Dass Computer Physisches beeinflussen, negiert der Artikel. Roboter können das, Computer nicht. Demnach ist die Unberechenbarkeit (im Sinn von unmöglich) eine wichtige Tatsache, die bislang übersehen wurde, Computer und menschlicher Geist existierten in unterschiedlichen Universen.

Und ohne Sein keine denkende Maschine, so der Artikel. Das müsse so ausgiebig erklärt werden, weil die meisten Philosophen und Wissenschaftler sich nach einem vom Fühlen unabhängigen Geist sehnen, der ausschließlich Denkleistungen erbringt. Über diesem starken Wunsch verwechseln sie ihn am Ende mit der Wahrheit, Philosophen seien auch nur Menschen.

Metzinger

Am Menschsein hapert's also nicht, wenn Thomas Metzinger, Professor für Philosophie, Philosophisches Seminar, Johannes Gutenberg-Universität Mainz schreibt, What If They Need To Suffer? Zu deutsch: Was, wenn sie leiden müssen?

Das menschliche Denken sei so effizient, weil die Menschen leiden können. Wie wird das beim künstlichen Denken, wenn das effizienter wird, wird es dann auch leiden können? Wird das Leiden notwendiger Bestandteil sein? Oder gibt's (negative) Gefühle nur für Menschen?

Der Mensch braucht die Leiden, oder besser die Vermeidungsfähigkeit vom Leiden zum Überleben, das Hirn arbeitet fortwährend daran, "böse Überraschungen zu vermeiden". Benötigt die Künstliche Intelligenz auch die Verletzlichkeit, um solche Fähigkeiten zu entwickeln? Es wird denkende Maschinen geben, aber "werden sie sich um ihre Gedanken scheren", und warum sollten sie?

Die "Erfindung" des bewussten Leidens durch die Evolution war sehr erfolgreich, sie sei so innovativ wie böse und grausam. Man könne sich selbstbewusste Lebewesen vorstellen, die nicht leiden. Dann seien eben keine negativen Wertigkeiten integriert, und die seien notwendig fürs Scheitern. Die Frage sei, kann es künstliche Intelligenz ohne solche existentiellen Sorgen überhaupt geben?

Norvig

Peter Norvig, der Forschungschef von Google, sagt Ask Not Can Machines Think, Ask How Machines Fit Into The Mechanisms We Design. Auf deutsch Man muss die Frage anders stellen.

Erstmal sei es eine irrelevante Definitionsfrage, ob Maschinen denken können. Es komme ganz darauf an, was man unter "denken" versteht. Wichtiger sei die Frage, was Maschinen tun können und ob wir uns vor ihnen fürchten sollten.

Die pessimistische Sicht sei, man wisse ja nicht, wie sichere komplexe Systeme der Künstlichen Intelligenz schaffen kann. Bei anderen Systemen weiß man's aber auch nicht, es gebe immer Kollateralschäden. Und die besondere Besorgnislage? Da nennt Norvig die Stichpunkte Anpassungsfähigkeit, Autonomie und Universalität der Systeme.

Anpassung könne zu neuen Fehlern führen, man müsse deshalb lernen, mit Anpassungsfähigkeit umzugehen. Auch Autonomie könne neue Probleme schaffen. Aber auch da Entwarnung, man müsse dauernd Kompromisse machen, wenn man autonom handelnde Technik einsetzt.

Unter Universalität sieht Norvig das, was 1965 J. Good schrieb, "eine ultraintelligente Maschine könnte selbst immer bessere Maschinen entwerfen; das würde dann eindeutig zu einer ,Intelligenzexplosion' führen, so dass die Intelligenz des Menschen weit abgeschlagen wäre. Deshalb wird die ultraintelligente Maschine die letzte Erfindung sein, die der Mensch machen muss."

Das ist die "Singularität", von der viel geredet wird. Norvig relativiert das, die Computerintelligenz sei keine überragende Superfähigkeit. Schließlich sei Intelligenz nicht dasselbe wie Erfolg. Was sich durchsetzt, könne ganz was anderes sein, siehe die Politik.

Und Vieles lasse sich mit Rechenpower gar nicht lösen. Andererseits gibt es aber viele Bereiche, wo Intelligenz hilft. Das ist aber nichts Neues, die Künstliche Intelligenz verändere die Dinge nicht grundlegend. Trotzdem sei Vorsicht angebracht.

Eno

Etwas andere Aspekte sieht Brian Eno, ein Musiker, Komponist und Produzent (von U2, Coldplay, Talking Heads, Paul Simon) in Just A New Fractal Detail In The Big Picture, in der Übersetzung der SZ Gewohnte Ahnungslosigkeit.

Eno zählt auf, was er im täglichen Leben so nutzt, und wie wenig er davon versteht. Radio, TV, Busservice, Email, Stromversorgung, Ölversorgung, Zugverkehr, Geldverkehr. Überall wirken Experten und Kräfte, die der Anwender allenfalls ganz oberflächlich begreift.

Aber Eno stört sich nicht an seiner "bodenlosen Unwissenheit". Er sei es gewohnt, und der Mensch sei schon lange nicht mehr in der Lage, alles zu verstehen ("multikompetente Individuen"). Alle seien Spezialisten – und ist diese Struktur aus Kompetenzen wirklich von Künstlicher Intelligenz zu unterscheiden? Was die Computer da machen, sei nur ein Fraktal im großen Zusammenhang.

Coupland

Zuletzt noch der menschliche Aspekt, dargetan vom Schriftsteller und Designer Douglas Coupland in Humanness, gleich Menschlichkeit.

Niemand habe bisher eine zufriedenstellende Antwort auf die Frage gefunden, was es bedeute, Mensch zu sein. Klar sei immerhin, dass Menschen "beharrlich Dinge entwickeln, mit denen sich unser Menschsein immer neu und immer anders ausdrücken lasse."

Coupland wendet sich gegen die Aussage, neue Technologien würden uns bloß befremden. Die seien ja menschengemacht und nicht per UFO gebracht. Bei der Künstlichen Intelligenz würde auch nichts herauskommen, dem wir gänzlich fremd gegenüberstehen, das sei unmöglich, jede KI würde egalement das Menschsein und die Charakteristika des Menschen spiegeln.

Die Angst vor KI und Singularität sei deshalb eine verkappte Angst vor unseren eigenen "unschönen Facetten", die dann zutage treten würden.

wissenbloggt

Nach 40 Jahren Computerprogrammierung, erst an der Uni, dann in einer eigenen Firma, erlaube ich mir auch ein paar Takte zum Thema. Nach meiner Erfahrung können Programme echtes Neuland erschließen und nicht bloß als Wurmfortsatz vom menschlichen Denken funktionieren. Da laufen ganz andere Algorithmen ab als im Hirn. Deshalb bin ich gegenüber Couplands Thesen skeptisch.

Die Aussagen von Eno finde ich besonders intelligent, aber ich glaube trotzdem nicht dran. Für mich ist absehbar, dass die KI doch grundlegend anderes Denken hervorbringt, als es das Hirn jemals könnte. Anders als Norvig glaube ich an die Intelligenzexplosion bzw. Singularität, die überragende Superfähigkeiten hervorbringen dürfte.

Das schwierige Problem ist die Semantik, das Verstehen, das Erkennen. Daran wird ja heftig gearbeitet, siehe In der KI-Falle. Wenn das gelöst ist, stehen alle Türen offen. Ich gehe mit Metzinger konform, dass dann Gefühle für die Weiterentwicklung gebraucht werden, allerdings erschließt sich mir nicht, wieso das nur negative sein sollen. Aus technischer Sicht funktioniert's positiv genauso.

Was dann stattfinden wird, wenn die Roboter flügge werden, ist das Üben im virtuellen Raum. Da werden sie die grundlegenden Emotionen lernen, nämlich die hundertprozentige Aufmerksamkeit für existenzbedrohende Situationen. Was beim Menschen die Adrenalinausschüttung beim Tigerangriff war, ist beim Roboter die Priorität Eins für nahende Dampfwalzen. Wenn das Wegrennen virtuell klappt, wird es auch in die Praxis umgesetzt, bis das KI-Äquivalent eines Adrenalinhaushalts funktioniert. Auf dieser Basis lassen sich weitere Gefühle entwickeln. Das dürfte eine Kleinigkeit sein gegenüber dem Probem des Erkennens.

Nach Gelernter ließe sich das Sein genauso wenig berechnen wie das Glück. Da bin ich völlig anderer Meinung. Emotionen sind programmierbar; sie bilden die Grundlage für Wertungen und damit für Entscheidungen, siehe auch Nachgedanken zum Freien Willen.

Allerdings muss man sich darüber klar sein, wie unterschiedlich KI und Mensch sind. Beim Menschen ist der Hormonhaushalt nur durch Drogen direkt zu beeinflussen. Bei der KI ist das beliebig programmierbar, analysierbar und manipulierbar. Man wird die Gefühle der Roboter programmieren können, wie man will. Wer emotionale Roboter will, der wird sie sich so einstellen können, kapriziös und launisch oder öde und zuverlässig, ganz nach Belieben.

Die Gefühle kann man leicht so komplex erzeugen, dass sie völlig undurchschaubar sind, eben wie beim Menschen. Das folgt der Logik, dass alle echten Entscheidungen letztlich auf Quantenereignisse zurückgehen, siehe Quanteneffekte und Freier Wille. Das gilt für Mensch wie Roboter, nur dass die Verarbeitung des grundlegenden Zufalls zu Entscheidungen verschieden ist.

Ich harre der Zeit, wo die Rückkopplung einsetzt und die Roboter sich selber weiterentwickeln. Das hab ich mir schon so ausgedacht, bevor ich von der "Singularität" wusste, meine Formulierung war, dass "der Knoten platzt". Ich glaube, dass viele Computerschaffende unabhängig voneinander dasselbe vorausbedacht haben.

Was mir die meisten Kopfschmerzen macht, ist die soziale Frage, Für wen arbeiten die Computer? Es läuft ja genau verkehrt herum, und das Geldgefälle zu den Reichen hin wird steiler und steiler. Es müsste aber von den Robotern, Computern und Automaten weg zu den normalen Menschen laufen. Ohne Sozialabgaben für Computer oder Robotersteuer wird es nicht abgehen, wenn unsere Zukunft gedeihlich werden soll.

 

Robot-Links von wissenbloggt:

Mehr zum Thema:
Dieser Beitrag wurde unter Wissenschaft veröffentlicht. Setze ein Lesezeichen auf den Permalink.

Eine Antwort auf Nachdenken über Denkmaschinen

  1. Saco sagt:

    Das Problem, Maschinen könnten sich verselbständigen und Menschen unterjochen, dieses Problem sehe ich nicht. Das Problem liegt in der Bösartigkeit von Menschen, die, wenn sie Maschinen programmieren, menschliche Bösartigkeit einprogrammieren.

    Die Selbstschussanlage erkennt durch einen einprogrammierten Denkprozess, wer erschossen werden muss. Bewegt sich das Ziel hin zur DDR,  ist es kein Republikflüchtiger. Der Todesschuss unterbleibt. Erkennen der Computer eines kleinen Landes einen Atomangriff, wird ohne menschliches Zutun der atomare Gegenschlag ausgelöst. Da es um Sekunden geht, wäre der Mensch hier zu langsam. Auch die Überwachung des Menschen ist inzwischen perfektioniert und automatisiert. Die Bösartigkeit, die wir in einer möglichen Verselbständigung von Computern befürchten, haben wir bereits in deren Software installiert. 

Schreibe einen Kommentar