Robotergesetze in der Diskussion

image_pdfimage_print

robot-3263267_1280

Schon seit gefühlt ewigen Zeiten geistern Robotergesetze durch die Science Fiction. Da geht es um die Pflichten des Roboters; zuvörderst darf er Menschheit und Menschen nicht schädigen, er muss den Menschen gehorchen, und mit letzter Priorität  muss sich selbst schützen. So dachte es sich der Biochemiker und Science-Fiction-Autor Isaac Asimov aus (Bild: annemazo, pixabay, verändert).

Seither sind mehr als 75 Jahre vergangen, und die Gesetze sind wieder in die Diskussion geraten (1., 2.). Nicht unbedingt das Original, aber ein zeitgemäßes Update. Dabei steht und fällt die Argumentation mit der Persönlichkeit des Roboters – hat er eine, oder hat er keine? (3. und wb-Links).

Um das Thema von hinten aufzudröseln, kommt erstmal der Verweis auf die heftige Action, die auf dem Gebiet herrscht. Nur ein Link als Beispiel (4.), der zeigen soll, die Granden der modernen Computerwelt sind alle am Thema dran. Wer sich die Medienberichte anschaut, findet Roboter-Artikel zuhauf, fast alles in englisch. Stichwortartig, was die werten Blechkollegen alles leisten (die Links listet ein späterer wissenbloggt-Artikel):

  • Börsengeschäfte automatisch durchführen,
  • generating sports reports,
  • Zeitungsartikel generieren,
  • drones soon to decide who to kill,
  • predict death,
  • driverless cars, trucks, delivery vehicles,
  • robot baristas,
  • burger-flipping robots,
  • AI doctors (AI = Artificial Intelligence = KI = Künstliche Intelligenz)
  • robot lawyers,
  • sex dolls.

Das ist nur ein Ausschnitt von den Themen, aber es gibt einen deutlichen Hinweis darauf, wie weitverzweigt die Aktivitäten schon sind. Man kann es nicht ignorieren. Ein Wort von Stuart Russell dazu: If a superior alien civilization sent us a text message saying, “We’ll arrive in a few decades,” would we just reply, “OK, call us when you get here — we’ll leave the lights on”? Probably not — but this is more or less what is happening with AI (5.). Diese Diskussion aus dem Independent ("AI ist hochgefährlich") stammt von 2014 und wurde auch da schon gekontert: "Technologie hat uns hierher gebracht, und nur Technologie kann uns retten. Kein Weg führt zurück" (6.).

Na denn. Der Weg ist gepflastert mit guten Absichten, und damit sind die Robotergesetze wieder im Visier. Die Initiative des Europäischen Parlaments mit den "electronic persons" ist schon in den wb-Links kritisch abgehandelt, insbesondere im Hinblick auf das fehlende Bewusstsein der Blechkameraden. Ein Eigenzitat aus dem dort verlinkten wb-Philosophie-Artikel:

Wenn man maschinelle Persönlichkeiten schützt, dann schützt man was, was man selber einstellt (im Sinne von justieren).

Damit ist die Argumentation der "electronic persons" schnellstens ad absurdum geführt. Deshalb entbehren auch die Robotergesetze der Grundlage. Ohne Bewusstsein (und Entscheidungsfreiheit usw.) keine Persönlichkkeit, ohne Persönlichkeit keine Verantwortlichkeit.

Und ohne Verantwortlichkeit muss jemand anders für die Einhaltung der Gesetze sorgen. Das ist die notwendige Konsequenz davon, dass Roboter beliebig von außen manipulierbar sind und stets irgendwelche andere Software draufgespielt kriegen können.

Die KI-Enquete vom Deutschen Bundestag (1.) kann da nix dran ändern, auch wenn über einen japanischen Roboter berichtet wird, der sich bei einer Wahl aufstellen ließ und mit 4.000 Stimmen Dritter wurde. Auch dass die Digitalisierung immer mehr Bereiche erfasst, ändert nix. Die Vision vom "neutralen Computer", die auch in den wb-Politik-Artikeln ausgemalt wird, geht nicht wirklich von unabhängigen Robotern aus. Dahinter stecken immer Menschen, die steuern, regeln, konfigurieren und programmieren. Dort sind die wesentlichen Einflüsse zu suchen, nicht bei dem Automaten, der das dann neutral exekutiert – darüber sollte man sich keiner Täuschung hingeben.

Aber welche Gesetze sollte man dem System einprogrammieren? Darüber lohnt sich eine Diskussion. Frei nach dem European: Wer entscheidet über die Prinzipien, Grundsätze, Entscheidungsverfahren der künstlichen Intelligenz, der Maschinen und der Roboter?

Ganz richtig werden die Vorgaben – für Robotergesetze wie wie für die deutsche Leitkultur – als Sammelsurium von Regeln und Erwartungen bezeichnet. Man weiß nichts genaueres über das Zustandekommen der letzteren. Deshalb sollte man sie bei ersteren besser und transparenter gestalten. Ob so eine Aufgabe bei den Bundestags-Leuten in guten Händen ist (Argumentation wb)?

Die sind immerhin stark christlich indoktriniert und bestehen aus üppigen Kontingenten von Lehrern und Juristen. Ob die wohl eine Vorstellung davon haben, wie KI-basierte Entscheidungen zustandekommen? Der vorige Bundestag hat sich gegen Sterbehilfe ausgesprochen, und der jetzige will Verantwortung und Haftungsfragen beim Einsatz von KI diskutieren? Auf Basis 1890 oder 1910?

Süffisant endet der Artikel: Irgendwann, wenn eine KI Amok läuft, werde es eventuell von Bedeutung sein, was sich die Enquete-Kommission überlegte, wer da verantwortlich sei und wie das Problem zu beheben und der Schaden zu ersetzen sei – natürlich nur, wenn am Ende überhaupt jemand übrigbleibt.

Zum Abschluss eine flapsige Bemerkung aus den Zeit-Online-Foren, die den Blechnagel auf den Kopf trifft: "Wir sollten gegen die grenzenlose Zuwanderung von Robotern was tun."

 

(Der Autor ist PC-Pionier und Computerspezialist.)

Medien-Links:

  1. Kommen jetzt die neuen Robotergesetze? (The European 30.7.): Die drei Robotergesetze kennt fast jeder. Oder hat wenigstens schon davon gehört. Leider hat ihr Schöpfer nicht gesagt, wie solche Vorgaben verbindlich zu machen sind. Inzwischen streben laut European Roboter nach politischen Ämtern und treffen für Menschen Entscheidungen. Gültige Robotergesetze gebe es aber immer noch nicht.
  2. Enquete-Kommission zur künst­lichen Intelligenz eingesetzt (Deutscher Bundestag 28.6.): Der Bundestag hat … eine Enquete-Kommission „Künstliche Intelligenz – Gesellschaftliche Verantwortung und wirtschaftliche Potenziale“ eingesetzt (Parteistandpunkte aufgeführt).
  3. Sind Roboter Rechtspersonen? (The European 8.6.): Eine „elektronische Persönlichkeit“ für autonome Systeme ist abzulehnen. Rechtsprechung und Rechtslehre sind in der Lage, mithilfe funktionaler Gesetzesinterpretation den Großteil der bestehenden Verantwortungslücken schließen.
  4. Mark Zuckerberg, Elon Musk and the Feud Over Killer Robots (New York Times 9.6.): As the tech moguls disagree over the risks presented by something that doesn’t exist yet, all of Silicon Valley is learning about unintended consequences of A.I.
  5. Stephen Hawking: 'Transcendence looks at the implications of artificial intelligence – but are we taking AI seriously enough?' (The Independent 1.5.14): Success in creating AI would be the biggest event in human history. Unfortunately, it might also be the last, unless we learn how to avoid the risks, says a group of leading scientists.
  6. Response to Hawking: AI Helps Us Understand a World We Endangered (Linkedin 6.5.14): The physicists and computer scientists who co-authored an article in the British newspaper The Independent raised the specter of superintelligent machines. Those machines, they wrote, may spin out of control one day, evolving without human intervention to become more powerful than, and uncaring toward, their creators.

Links von wissenbloggt zu Sex & Robotern:

Mehr zum Thema:
Dieser Beitrag wurde unter Technik veröffentlicht. Setze ein Lesezeichen auf den Permalink.

Schreibe einen Kommentar