Philosophie: Roboterintelligenz braucht kein Bewusstsein

image_pdfimage_print

robot-2752255_1280creozavrAuf dieser Site wurde sich heftig mit Robotern & Bewusstsein auseinandergesetzt – Zeit für einen Nutzeffekt aus all den Überlegungen. In dem Artikel Gött*innen in Fabrikation wurde ganz selbstverständlich vorausgesetzt, dass sich eine maschinelle Superintelligenz entwickelt, die dann als Gott fungiert. Unausgesprochenermaßen hat die Computer- oder Roboterintelligenz immer ein Ich, ein Selbst, ein Bewusstsein (Bild: creozavr, pixabay).

Deshalb denken die Entwickler jetzt schon über Roboterrechte nach. Für viele sind Roboter eine neue Spezies. Sie wird über ein Bewusstsein verfügen und in vieler Weise die menschlichen Dimensionen überschreiten. Der Zeitpunkt, wo das einsetzt, nennt sich Singularität. Dann werden die Maschinen ihre eigene Verbesserung per Künstlicher Intelligenz übernehmen und dem technischen Fortschritt den Turbo verpassen. (An dieser Stelle werden die weniger weit gehenden Vorstellungen der Roboethics von Agenten und Avataren nicht beachtet.)

Nach der turbo-optimistischen Sicht werden die Roboter zum neuen Gott, zum Robo sapiens, wenn nicht gar zum Deus sapiens, dessen Weisheit die des Menschen übersteigt. Konsequenterweise soll die maschinelle Intelligenz der Bio-Intelligenz gleichgestellt werden. Aus der Sicht von wissenbloggt sind solche Überlegungen jedoch mit zwei groben Fehlern behaftet.

  1. Es gibt noch kein maschinelles Bewusstsein.
    Einige Autoren glauben sogar, dass Maschinen niemals ein Bewusstsein entwickeln können. Andere stellen Kriterien auf (Artificial consciousness), die ein Bewusstsein weit entfernt von den Eigenschaften des menschlichen Bewusstseins definieren (wb-Links unten). Damit ein Wesen zur Person wird, muss es ein Ich haben, ein Selbst – mit anderen Worten, ein Bewusstsein. Wenn ein Wesen kein Bewusstsein hat, ist es keine Person. Wenn es keine Person ist, braucht es auch keine Persönlichkeitsrechte.
  2. Es gibt keine maschinelle Privatsphäre.
    Selbst wenn es mal ein maschinelles Bewusstsein gibt, fehlt noch eine andere Eigenschaft zur Person. Bei Mensch & Tier ist sie automatisch gegeben, nicht aber bei Maschinen. Maschinen haben keine abgeschlossene Privatsphäre. Vielmehr haben sie eine Gruppenidentität, die kopierbar, austauschbar, löschbar, updatebar und generell manipulierbar ist. Dasselbe gilt sogar für das präsumptive Bewusstsein, auch das ist generell manipulierbar. Damit das geschützt wird, muss man die ganzen Inspektions-Ports, Update-Facilities und Schnittstellen weglassen und was basteln; eine Art black box, an die man nicht drankann.

Klar wird dabei, wie willkürlich es ist. Maschinelle Charaktereigenschaften bestehen aus Datensätzen, die im Prinzip jederzeit veränderbar sind (wb-Links Wille programmiert). Was für den maschinellen Charakter und den maschinellen Willen gilt, gilt eingeschränkt auch für die maschinelle Intelligenz, die maschinelle Kognition und das maschinelle Bewusstsein.

Wenn man maschinelle Persönlichkeiten schützt, dann schützt man was, was man selber einstellt.

Man kann den Maschinen gestatten, ihre charakterbildenden Datensätze nur selber zu ändern und sie gegen externe Änderungen zu schützen – aber will man das auch? Es ist doch ein tolles Feature, dass die Roboter ihre persönlicheitsbildenden Merkmale kopiert und manipuliert kriegen können. So kann man sie passend einstellen, dass sie immer freundlich sind (Pegel X3 schön hoch halten), dass sie nicht unnötig leiden (Pegel Y2 niedrig lassen) und immer fleißig bleiben (Pegel Z7 hoch).

Diesen Zugang offen zu halten, ist natürlich keine Gewähr, dass die Roboter immer brav bleiben. Es könnte ja einer hingehen und alle Kollegen auf menschenfeindlich trimmen, indem er ihnen seinen bösen Charakter-Datensatz draufkopiert. Es liegt also nicht nur eine Chance in der Offenheit, sondern auch eine Gefahr. Da wär's vielleicht gut, wenn der Pegel X3 bauartbedingt nie zu tief gehen kann …

Maschinelles Bewusstsein

Beim Menschen ist nach dem hier erreichten Kenntnisstand das innere Modell, das sogenannte phänomenale Selbstmodell (PSM) fürs Bewusstsein zuständig (wb-Links inneres Modell). Basierend auf den Ideen des theoretischen Philosophen Thomas Metzinger reichen die folgenden Punkte 1., 2., 3., 4., um "das Erscheinen einer Welt" zu konstituieren. Und das Erscheinen einer Welt ist Bewusstsein.

  1. ständige Aktualisierung des Modells, also eine von der Sensorik gespeiste Refresh-Funktion,
  2. ein "Gegenwartsfenster", das ein "erlebnismäßiges Jetzt" schafft, gewonnen durch den Fokus, der sich beim Bewusstsein wie beim Sehen immer nur auf ein Objekt richtet, dann auf das nächste usw. – wo der Fokus drauf ist, das ist nicht nur ein Ort, sondern auch die Zeit "Jetzt",
  3. eine "transparente" Repräsentation, das heißt die Refreshs erfolgen, ohne das innere Modell zu stören,
  4. eine Schleife für die Ich-Bildung, die Innenwahrnehmung, die wichtigen Gefühle und Empfindungen – mit Metzinger: "wenn ein System ein ebenso transparentes inneres Bild von sich selbst in diese phänomenale Wirklichkeit einbetten kann, dann wird es sich selbst erscheinen",
  5. eine hormonelle Komponente, die vom "Alarm" abgeleitet ist; damit wäre Bewusstsein das Feintuning vom Alarm.

Der 5. Punkt wurde von wissenbloggt ersonnen, mit dem Argument, 100% Alarm = maximales Bewusstsein, und der Alarm hat eben eine starke hormonelle Komponente (wb-Links inneres Modell). Nach Metzinger ist Bewusstsein ein "Interface" und das Selbstmodell "Teil einer biologischen Benutzeroberfläche". "Subjektivität" und "Erste-Person-Perspektive" wäre demnach u.a. als "neuronales Datenformat" zu verstehen.

Wie es beim Menschen organisiert ist, dem wird auch in anderen Artikeln nachgespürt (wb-Links Schritt für Schritt und Entstrubbelungsversuch) – aber wie soll das nun bei Maschinen funktionieren? Im Prinzip ist das Argument, was Bio kann, kann Chip auch. Wenn aber die hormonelle Komponente essentiell ist, kann der Chip dann auch das, was das Adrenalin macht?

Da gibt es einige Unwägbarkeiten, weshalb das maschinelle Bewusstsein hier unter "allerschwierigstes Problem der KI" läuft, schwieriger als das Problem der maschinellen Intelligenz (Mustererkennung, Semantik und Weltwissen), viel, viel schwieriger als das Problem maschinelle Gefühle und maschineller Wille (wb-Links Wille programmiert).

Computerintelligenz ohne Bewusstsein

Es ist ja möglich, dass bewusstes Denken und Fühlen nicht allein per Computer zu erzeugen geht, sondern nur im Zusammenhang mit einem (Robot-)Körper und evtl. sogar der Umwelt. Diese Ansicht verträgt sich mit den Meinungen, bei denen Körper und Umwelt als unabdingbar z.B. für die Kognition gelten.

Hier wird allerdings die Ansicht vertreten, dass immer zwei Dinge zu unterscheiden sind, einmal die Kognition als solche, die der Computer schon sehr schön beherrscht, und die bewusste Kognition. Die gleiche Unterscheidung gilt für Wille und bewusster Wille, für Charakter und bewusster Charakter, für Bedeutung und bewusste Bedeutung, für Intelligenz und bewusste Intelligenz.

Bei der Behandlung dieser Fähigkeiten mischt die herkömmliche Philosophie das Bewusstsein unausgesprochenermaßen rein und schafft dadurch lauter Komplikationen. Die Kognition verlangt dann nicht bloß ein Hirn (oder einen Computer) zur Verarbeitung von sensorischem Imput, sondern Interaktion mit dem ganzen Körper, ja, der Umwelt – aber nur, weil es bewusste Kognition ist.

Das Bewusstsein ist es, was den Körper und sogar die Umwelt zur Erklärung braucht, nicht die Kognition. Zur Veranschaulichung kann man sich analog zur Kognition das Gravitationsgesetz in der ersten Näherung mit punktförmigen Massen vorstellen. Die bewusste Kognition entspräche dann der Theorie 2. Ordnung mit kugelförmigen Massen – da ist alles viel komplizierter.

Personen sind's noch lange nicht

Wer diese Sicht akzeptiert, kann sich Wille, Charakter, Bedeutung, Intelligenz durchaus ohne Bewusstsein und damit computertauglich vorstellen. Zwar kommt dann kein Ich, kein Selbst, mithin kein Bewusstsein raus, aber eben doch Roboter-, Computer-, Maschinenintelligenz.

Das wäre also die Begründung für den Titel Roboterintelligenz braucht kein Bewusstsein.

Will man der Argumentation folgen, kann auf dieser Stufe keine Rede von Persönlichkeitsrechten sein. Dazu müssten die Maschinen erstmal Personen sein und ein Bewusstsein haben. Wenn die Theorie mit dem notwendigen Körper stimmt, dürfte es keine Computer mit Bewusstsein geben, nur Roboter und Maschinen. Aber vielleicht findet man doch einen Dreh, den Körper irgendwie in Chips abzubilden …

Jedenfalls dürfte die Computerrevolution prima ohne Bewusstsein funktionieren, mithin auch ohne jede Notwendigkeit für Roboterrechte (Roboterpflichten sind dagegen notwendig, zumal für die Slaughterbots und verwandte Killer-Maschinen).

Wenn das maschinelle Bewusstsein mal kommt, sollte man abwägen, inwieweit Robotern Persönlichkeitsrechte zuerkannt werden können. Es geht doch darum, dass die Roboter für die Menschen arbeiten, und dass man sich um die Menschenrechte kümmert.

 

Links von wissenbloggt dazu:

Mehr zum Thema:
Dieser Beitrag wurde unter Wissenschaft veröffentlicht. Setze ein Lesezeichen auf den Permalink.

Schreibe einen Kommentar