Warnung vor autonomen Waffensystemen

image_pdfimage_print

drone-154453_640Die Killer-Roboter werden immer realistischer. Dieser Meinung sind über 1000 renommierte Entwickler von solchen Maschinen und von Künstlicher Intelligenz (KI bzw. englisch AI). Die correcte Bezeichnung für Killer-Roboter ist "Autonome Waffensysteme", und davor warnen die Entwickler in einem offenen Brief (Bild: OpenClipartVectors, pixabay).

Man kann die Warnung unterschreiben bei dem Link Autonomous Weapons: an Open Letter from AI & Robotics Researchers (28.7.). Der Text in unserer Übersetzung:

Autonome Waffensysteme der Zukunft zielen und schießen ohne menschlichen Eingriff. Das können z.B. Drohnen (Quadcopter) sein, die gesteuert von vorprogrammierten Kriterien nach menschlichen Zielen suchen und sie töten. Nicht gemeint sind cruise missiles oder von Menschen ferngesteuerte Drohnen, wo noch Menschen die Zielentscheidungen fällen. Die KI hat einen Punkt erreicht, wo autonome Waffensysteme realisierbar sind – technisch, wenn auch nicht staatsrechtmäßig – innerhalb von ein paar Jahren und nicht Jahrzehnten. Dabei sind die Schwellen hoch, die zu überwinden sind: Diese Waffen werden nach Schwarzpulver und Atombomben als die 3. Revolution der Kriegstechnik bezeichnet.

Es wurde viel dafür und dagegen argumentiert, z.B., dass das Ersetzen menschlicher Soldaten durch Maschinen gut sei, weil es weniger Tote und Verletzte gebe, und zugleich schlecht, weil die Schwelle zum Kriegseinsatz niedriger liege. Die Schlüsselfrage der Humanität ist heute, ob ein globaler KI-Waffen-Rüstungswettlauf gestartet wird, oder ob man ihn  verhindern kann.

Wenn eine Großmacht damit anfängt, werden die anderen unweigerlich folgen, mit dem absehbaren Ergebnis: Autonome Waffen werden die Kalaschnikows der Zukunft. Sie sind ungleich leichter und billiger herzustellen als Atomwaffen, deshalb werden sie durch billige Massenproduktion in sämtlichen Militärmächten allgegenwärtig sein.

Dann kann es nur eine Frage der Zeit sein, bis sie auf den schwarzen Märkten auftauchen und in die Hände von Terroristen gelangen, von Diktatoren, die ihr Volk noch besser unterdrücken wollen, von Kriegsherren, die ethnische Säuberungen betreiben wollen, usw.

Autonome Waffen sind ideal für Überfälle und Mordanschläge geeignet, sie können dadurch Nationen destabilisieren, Bevölkerungen unterdrücken und selektiv bestimmte ethnische Gruppen auslöschen. Deshalb glauben wir, dass ein Rüstungswettlauf in Richtung KI-Waffen schlecht für die Menschheit wäre. Es gibt genug andere Wege, auf denen KI die Schlachtfelder sicherer machen kann, für Soldaten und speziell für Zivilisten, ohne gleich neue Tötungswaffen zu entwickeln.

Wie die meisten Chemiker und Biologen kein Interesse haben, neue chemische und biologische Waffen zu entwickeln, haben auch die meisten KI-Forscher kein Interesse, KI-Waffen zu bauen – und sie wollen auch nicht, dass andere ihr Arbeitsgebiet besudeln, indem sie es tun. Das könnte einen großen Rückschritt in der Akzeptanz der KI geben und ihren zukünftigen sozialethischen Nutzen beeinträchtigen.

Tatsächlich haben Chemiker und Biologen übereinstimmend die internationalen Vereinbarungen mitgetragen, mit denen neue chemische und biologische Waffen erfolgreich verhindert wurden, genauso wie die meisten Physiker die Verträge unterstützten, mit denen Atombomben und Laserkanonen aus dem Weltraum rausgehalten wurden.

Als Fazit glauben wir, dass KI ein großes Potential hat, der Menschheit auf vielen Gebieten nützlich zu sein, und das Ziel sollte sein, genau das zu erreichen. Dagegen ist ein KI-Waffen-Rüstungswettlauf eine schlechte Idee und sollte durch einen Bann verhindert werden, der autonome Angriffswaffen außerhalb menschlicher Kontrolle sanktioniert.

Soweit der offene Brief. Bei SPIEGEL ONLINE findet sich der Artikel Denkende Waffen: Künstliche-Intelligenz-Forscher warnen vor künstlicher Intelligenz (28.7.), in dem das Thema abgehandelt wird: Killer-Roboter klingen mehr nach Hollywood als nach einer akuten Bedrohung der Menschheit. Doch jetzt warnen mehr als tausend Experten für künstliche Intelligenz: Autonome Waffensysteme könnten bald das werden, "was Kalaschnikows heute sind".

Dort werden ein paar Bücher zum Thema vorgestellt, und auch andere Aktionen in dieser Richtung. Aber der offene Brief hat die eindruckvollste Unterzeichnerliste, die es je gab, und sein Text sagt am besten aus, wo das Problem liegt.

Es ist auch höchste Zeit dafür, denn es gibt schon "Waffensysteme mit einem hohen Grad von Autonomie, die mit minimalem menschlichem Input Ziele erkennen und angreifen können". Das beschreibt wissenbloggt in diversen Killer-Drohnen-Artikeln, siehe Links unten. Vor den Killer-Robotern warnte schon 2012 der Bericht LOSING HUMANITY – The Case Against Killer Robots von Human Rights Watch. Es gibt auch schon eine CAPAIGN TO STOP KILLER ROBOTS.


Weitere wb-Links zum Thema Roboter

Mehr zum Thema:
Dieser Beitrag wurde unter Wissenschaft veröffentlicht. Setze ein Lesezeichen auf den Permalink.

3 Antworten auf Warnung vor autonomen Waffensystemen

  1. Soche "Autonomen Waffensysteme der Zukunft" ließen sich doch sicher auch so programmieren, dass sie ausschließlich die "autonomen Waffensysteme" der Gegner erkennen und ausschalten / zerstören. Damit böte sich dann die Möglichkeit, derlei Waffensysteme z.B. in der reizvollen Landschaft der Zentralantarktis — oder in einer anderen Großwüste, ja vielleicht sogar auf dem Mond (man weiß ja, wie man dort hin gelangt und Gerät hintransportiert) — gegeneinander antreten und sich gegenseitig zerstören zu lassen …

    Eckhardt Kiwitt, Freising

  2. Wilfried Müller sagt:

    dann kann man den Gewinner auch gleich ausflippern …

  3. Wilfried Müller sagt:

    In einem Folgeartikel bei ZEIT ONLINE wird am 12.8. ganz zeit-untypisch argumentiert,  Waffen – Kampfdrohnen senken die Schwelle zum Krieg: Demnach liegt der mögliche Verbotsgrund im Besonderen der Kampfdrohnen: Mit diesen Waffen können überraschende, gezielte und an keinen Frontverlauf oder Kriegshergang gebundene Angriffe geführt werden, und zwar mit geringem Risiko für die eigenen Kräfte. Sie sind damit gewissermaßen das Pendant zu den Killerkommandos des Terrorismus. Keine Rede von den Kollateralschäden, also den vielen Falschen, die erwischt werden. Reicht denn das nicht als Verbotsgrund?

     

Schreibe einen Kommentar