KI mit neuem Optimismus

image_pdfimage_print

snail-306356_640Neue Meldungen von der KI-Front geben sich optimistisch: Die site wired.de schreibt am 10.8. über Googles Superhirn: Der DeepMind-Chef Demis Hassabis baut die ultimative Denkmaschine. Hier soll nicht untersucht werden, ob der ultimative Anspruch gerechtfertigt ist. Es geht um die Stimmungslage auf dem Gebiet der Künstlichen Intelligenz KI. Da schwankt es immer von Euphorie zu Enttäuschung, wenn mal wieder ein Teilziel erreicht wurde, bzw. wenn nicht.

Man erinnert sich an die Schach-Programmierung. Da dauerte es auch viel länger als gedacht, aber dann wurde ein Schachprogramm 1997 Schachweltmeister (mit spezieller Hardware dafür und fest programmierter Software). So ähnlich kann man sich den Fortschritt auch bei der gesamten KI vorstellen. Erstmal grassiert der Optimismus, dann kommen die Rückschritte, es wird getrixt und optimiert, und am Ende klappt es dann – Schnecken kommen auch irgendwann ans Ziel (Bild: ClkerFreeVectorImages, pixabay).

Von humanistischer Seite wird gern argumentiert, das menschliche Hirn sei alleine fähig, semantisches Verständnis aufzubringen, und Computer können nur so tun als ob. Gegen diese Sicht wendet sich der Artikel. Der Inhalt in Kürze referiert:

Der Autor David Rowan stellt dieselbe Frage wie viele andere, Sollten wir uns vor einer Maschine fürchten, die denken kann? Vor Maschinen, die auch schießen können, fürchtet sich die ganze Branche, siehe Warnung vor autonomen Waffensystemen. Aber denken? Ist die Computerdenke so gefährlich?

Killer

Der Autor kokettiert damit, dass er die Aussage wagt, die Zukunft der künst­lichen Intelligenz beginne mit einer Partie „Space Invaders“. Das ist ein Killerspiel, bei dem Aliens abgeknallt werden müssen; und der Meister-Killer ist ein Computerprogramm. Niemand auf der Welt beherrscht Space Invaders besser als ein Algorithmus namens Deep-Q-Network, der von der Londoner Firma DeepMind programmiert wurde. Die Software ist lernfähig, und sie lernte am Beispiel Space Invaders,  Break­out und anderen Videogames.

Zuerst sah es eher schlimm aus, so der Artikel, aber das System lernt. Das Programm macht immer mehr Punkte, bis es nach 4 Stunden perfekt spielt. Es entwickelt ungeahnte Strategien und gewinnt. Dasselbe testeten die Entwickler mit 49 Video­spielen aus der Atari-2600-Generation, ohne dem Computer irgendwelche Unterstützung zu geben. Das Programm meisterte alle Aufgaben und hängte einen professionellen Game-­Tester oft ab. Das Lernen funktioniert also schon ganz gut auf der Basis von Computerspielen (nur beim Schachspielen wäre es dem bisherigen Meister Deep Blue unterlegen).

Das ist keine Kleinigkeit, es handelt sich um ein Projekt von der Größenordnung des Apollo-Programms. So hat DeepMind es geschafft, auf elementarer Ebene zwei Forschungsbereiche erfolgreich miteinander zu verknüpfen, ein künstliches neuronales Netzwerk mit einem Algorithmus für Lernen. Dabei geht es um Algorithmen, die auf einem Ge­biet etwas lernen und dieses Wissen auf ein anderes übertragen können – also um zentrale Features der Semantik.

Weiterungen

Im Weiteren werden Börsendaten ins Auge gefasst, um aus ihnen Anlagestrategien zu entwickeln. Das mag der Grund sein, warum Google das Londoner Unternehmen 2014 für 550 Mio. Euro kaufte. Unternehmensziel: „solve intelligence“ (Intelligenz erkunden). Wenn das klappt, dürften 550 Mio. geschenkt sein.

Es gibt auch schon ein neues Kürzel für Computersysteme,  die alles um sich herum begreifen: „artificial general intelligence“, AGI, (allgemeine künstliche Intelligenz). Basierend auf neuronalen Netzwerken sollen Computer lernen, in jeder denkbaren Situation eigene Entscheidungen zu treffen, die Maschinen sollen platterdings schlau gemacht werden.

Das Lernen geht analog zu biologischen Systemen durch eigenständige Erweiterung von Regeln. Das ist nicht mehr fest programmiert, sondern es evolviert sich von allein – man nennt das Lern-Lernprogramm. Doch der Artikel fragt: Warum sollten wir uns überschlaue Computersysteme wünschen?

Nun, die Macher meinen, der Fortschritt, den unsere Gesellschaft erwartet, sei nur mithilfe von KI zu erreichen. Alles beeinflusse alles, und die Datenmengen überfordern die Menschen. Wo die besten Experten an ihre Grenzen stoßen. könne die KI aber die richtigen Schlüsse ziehen.

Fortschritte

Der Artikel bremst diese überoptimistischen Erwartungen. Dass Maschinenwesen sich in der Menschenwelt besser zurechtfinden, liege noch in weiter Ferne. Auf dem Weg müssen diverse Probleme gelöst werden, z.B. das Sehen und das Hören, bzw. Erkennen und verstehen.

Das ist der Bereich pattern recognition oder Mustererkennung. Wie es da vorangeht, besagt der Artikel Künstliche Intelligenz – Dieser Computer schreibt in Handschrift (Süddeutsche Zeitung 27.7.): rapide, um es auf einen Begriff zu bringen.

Fortschritte auf allen Ebenen, demnächst auch bei Googles Suchmaschine, wo das Deep Q-Network helfen soll, bessere Suchergebnisse aufzustöbern. Und bei Android mit "neuen Killer-Features", d.h. lernfähigen Smartphone-Assistenten. Und bessere Wettervorhersagen und Börsenstrategien, benamst mit "Predictive analytics" – kaum ein Bereich wird unbeeinflusst bleiben. Neue Technologie-Umwälzungen bahnen sich an, so die optimistische Sicht.

Ja, es werden gar keine Menschen mehr nötig sein, um viele Aufgaben zu lösen, wo sich heute noch die wetware tummelt (Computerslang für Menschen). Ob das wirklich Anpass zum Optimismus gibt, und ob das der Fortschritt ist, den unsere Gesellschaft erwartet? Darüber schweigt der Artikel.

Genies

Dafür befasst er sich mit den Machern Demis Hassabis und Mustafa Suleyman. Hassabis zeigte geniale Aspekte mengenweise, als er schon mit 4 die Erwachsenen im Schachspiel schlug und als Schach-Kid Karriere machte. Dann dachte er über den Brettrand hinaus und übers Denken nach. Er bildete sich selbst zum Programmierer aus und entdeckte flugs das Prinzip der KI für sich. Nebenbei durchlief er die Schule im Schnellgang und bewarb sich mit 16 für einen Studienplatz in Cambridge. Als zu jung abgelehnt, arbeitete er in einer Computerspielefirma , wo er gleich ein Programm strickte, das zum Riesen-Verkaufserfolg wurde. Das finanzierte sein Studium, das er mit Auszeichnung absolvierte. Dann wieder eine Zeit als Entwickler, bis er sich selbständig machte.

Das ging nicht wie gewünscht, und der tüchtige Mann kehrte zum Promovieren an die Uni zurück, Schwerpunkte Gedächtnis und Vorstellungsvermögen, und auch diese Arbeit machte Furore. Weiter ging's am MIT und in Harvard, nebenbei gewann er fünfmal den Denksportwettbewerb Mind Sports Olympiad. Dann die Gründung von DeepMind, für die er potente Geldgeber fand. Das viele Fundraising hielt ihn vom Entwickeln ab, daher dann der Verkauf an Google.

Der andere Macher Suleyman zeigte eher Geschäftstüchtigkeit, wenn es auch heißt, er sei mehr an der gesellschaftlichen Wirkung seines Handelns interessiert als am reinem Profit. Er studierte Philosophie und Theologie in Oxford, brach aber ab, um sich politisch zu engagieren. Jetzt leitet er die die 5 Teams, die an YouTube, Internetsuche, Gesundheitsthemen, natürlicher Spracherkennung und anderen Google-X-Projekten arbei­ten. Auf Grundlage der You-Tube-Nutzervideos analysiert sein Team, was wer wann wahrscheinlich sehen will.

Unkenrufe

Natürlich ist das nur ein langfristiges Forschungsprojekt, wie es treuherzig heißt. Suleyman ist schließlich auch für „Ethik und Sicherheit“ zuständig. Was davon wird? Sicher ist nur, dass es mit "unglaublicher Geschwindigkeit" voranschreitet, das Tempo nehme fast exponentiell zu.

Und dass etwas ernsthaft Gefährliches passieren könnte, liege im Rahmen der nächsten fünf Jahre, so spekuliert ein anderes Wunderkind namens Elon Musk (einer der Käufer von DeepMind). Man gebe sich zwar Mühe, Sicherheit zu gewährleisten, aber das Risiko ist, dass sie glauben, sie könnten die digitalen Superintelligenzen formen und kontrollieren und bösartige daran hindern, ins Internet zu entweichen. Das bleibe abzuwarten.

Musk ist auch derjenige, der davor warnte, „einen Dämon heraufzubeschwören“, denn KI-Systeme „könnten möglicherweise gefährlicher als Atomwaffen“ sein. Der Vollständigkeit halber werden noch Stephen Hawking und Steve Wozniak (der Apple-Erfinder) zitiert, die davor warnen, hochintelligente Maschinen als reine Science-Fiction zu sehen: Sie könnten Finanzmärkte austricksen, Führungsspitzen manipulieren und Waffen entwickeln, "die wir nicht einmal begreifen werden". Das könnte möglicherweise der größte Fehler unserer Geschichte sein.

Abwiegeln

Gegen die Sicherheitsbedenken plant man jetzt einen "unabhängigen Ethik-Rat". Aber die Warnungen vor der „existenziellen Gefahr“ durch intelligente Maschinen seien ohnehin überzogen, man sieht alles noch im grünen Bereich. KI bringe „enormen Nutzen“, man müsse sie eben "robust" machen, damit sie nicht aus dem Ruder laufen kann und etwa Kriegspläne schmiede. Also bitte nicht hysterisch werden und in Panikmache verfallen, die KI-Systeme werden sich schon nicht selbständig machen. Schließlich arbeiten daran äußerst intelligente und umsichtige Menschen, die nichts Böses im Sinn haben.

Hier ist dann wieder der Spruch fällig, die meisten KI-Forscher hielten es für unwahrscheinlich, dass Maschinen in naher Zukunft ein Bewusstsein entwickeln werden. Man sei noch Jahrzehnte entfernt von allem, was auch nur annähernd an menschliche Intelligenz herankommt. Was für die nächsten 5-10 Jahre geplant sei, sind nur Systeme, die nützliche Aufgaben erledigen. Man befinde sich auf der untersten Sprosse einer Leiter, von der keiner weiß, wie viele Sprossen sie hat. Vielleicht seien noch 10-20 wissenschaftliche Durchbrüche nötig auf dem Weg zum Verständnis der Intelligenz.

Und wenn nicht? Wenn es die Singularität gibt, von der viele träumen? Dann hat das Argumen mit den gutwilligen entwicklern wenig Gewucht,m wo doch die Software sich vom Menschen emanzipiert. Und die Zahlen sind ohnehin nur Spekulation. Es könnte auch mal schneller gehen als gedacht.

Weitere wb-Links zum Thema Roboter und KI:

Mehr zum Thema:
Dieser Beitrag wurde unter Wissenschaft veröffentlicht. Setze ein Lesezeichen auf den Permalink.

Schreibe einen Kommentar