Roboter mit Gefühlen?

image_pdfimage_print

robotopl_PB190139Die technische Hilfskraft im Bild (Untitled © Alex Gonzalez, Openphoto) sieht nicht nach höheren Weihen der Künstlichen Intelligenz aus. Aber das Innenleben der Roboter steht wieder mal zur Diskussion, und mit Recht.

Die Süddeutsche Zeitung bietet was Flotteres zum Anschauen an in Kampfroboter – Automaten des Todes (14.8.13): Im Zweifel werden die Killer-Roboter, Frankensteins Monster gleich, schon bald den Forschungslabors entsteigen, den Labors der Rüstungs- und Computerindustrie in den USA oder in Großbritannien, in Israel und kurz über lang wohl auch in China. … Killer-Roboter werden die Waffen des 21. Jahrhunderts sein – wenn nicht bald etwas geschieht.

Es geschieht derzeit schon, die automatischen Tötungsmaschinen sind längst unterwegs. Man nennt sie Drohnen, und sie werden eine Menge Geschwister kriegen, die sich auf Beinen und Rädern fortbewegen. Deshalb kommt auch der folgende SZ-Artikel zu spät. Militärtechnologie – Kampagne gegen Kampfroboter (23.12.13): Im Science-Fiction-Film sind sie eine alltägliche Waffe, doch Realität sollen sie nicht werden: autonome Killerroboter. Die Staaten der Welt prüfen, ob sie den Einsatz der Maschinen verbieten können, bevor diese überhaupt entwickelt werden.

Realistischer ist der Artikel von ZEIT ONLINE  Fliegende Roboter – Im Drohnenfieber (13.1.): Die fliegenden Roboter eröffnen einen Milliardenmarkt, auf dem sich auch deutsche Anbieter etablieren wollen. Die New York Times ruft nicht zu Unrecht sogar das zweite Maschinenzeitalter aus, 2nd machine age (If I had a hammer, 11.1.), und in ähnlicher Form liest man solches auch in anderen Medien. Nach der puren Kraft von Dampfmaschine & Co. kommt jetzt die Brainpower vom Computer, und desgleichen der Overkill. Am 29.1. setzt die SZ noch eins drauf (nicht online), die Rede ist von Cyborgs, von wearable technology und human enhancement. Das elektronische Piercing ist nicht mehr fern, die Technik zum Anziehen und zum Einpflanzen (siehe auch Selbstertüchtigungsindustrie im Vormarsch).

Wieviel Durchgriff die Bewegung hat, zeigt ein weiterer SZ-Artikel Startup DeepMind – Google kauft sich künstliche Intelligenz (27.1.): Gegründet von einem Schach-Wunderkind, mit dem Geld berühmter Milliardäre: Die geheimnisvolle Firma DeepMind wird von Google übernommen. Sie bringt Computern bei, zu lernen. Damit die Algorithmen keinen Unsinn machen, soll der Konzern einen Ethik-Rat einrichten.

Um nun zum eigentlichen Thema zu kommen – dem Innenleben der Roboter – muss zunächst noch ein Artikel der SZ vom 24.4. genannt werden, Ganz warm um den Akku von Hubertus Breuer (nicht online). Demnach arbeiten Robotiker daran, den Maschinen Gefühle zu machen. Vorerst kommunizieren sie welche, Zuneigung, Angst, Freude, Ärger, ohne welche zu haben. Das geht durch Mimik und Gestik, z.T. durch einfache Surrogate (der Roboter blinkt, surrt und fiept, wenn er glücklich ist).

Gewiss ist die Kommunikation von Gefühlen ein wichtiges und nicht triviales Feature für die Roboter, wenn sie weitergehende Akzeptanz und Nützlichkeit erwerben wollen. Wenn RoboterInnen die Pflegekräfte ersetzen, brauchen sie den Anschein sozialer Kompetenz. Aber steckt hinter dem emotionalen Ausdruck tatsächliche kognitive und affektive Kompetenz, oder ist es bloß eine geschickte Synthese von fertigen Versatzstücken?

Laut SZ-Artikel behauptet fast kein KI-Forscher, eine Maschine erlebe wirklich Gefühle, und manche erklären diese Frage sogar für irrelevant. Roboter mit echten Gefühlen seien Mangelware, heißt es, aber es werde daran gearbeitet. Nun wird der zentrale Punkt angesprochen: Gefühle helfen Entscheidungen zu treffen. Das macht sie auch für Roboter nützlich.

Hier begegnet die Argumentation dem wissenbloggt-Diskurs um den Freien Willen, siehe Entscheidungsverarbeitung. An dieser Stelle soll die Ansicht vertreten werden, dass man den Robotern sehr wohl Gefühle machen kann, die vom Prinzip her dasselbe leisten wie beim Menschen, nämlich einen (Freien) Willen zu schaffen.

Wieder gilt die grundsätzliche Logik: Zufallsentscheidungen aus der physikalischen Umgebung und letztlich von den Quantenereignissen ausgelöst, werden in Entscheidungen der Entität umgesetzt – egal, ob es ein Mensch oder ein fortgeschrittener Roboter ist. Man kann Bedingungen dafür formulieren:

  • es muss ein deterministischer Überbau existieren, der Vernunft in das Geschehen bringt
  • unterhalb dessen muss der Zufall auf so komplexe Art walten, dass er nicht direkt wahrzunehmen ist (und von vielen Leuten deshalb verleugnet wird)
  • die Entscheidungen müssen von einer internen Instanz als eigene Entscheidungen erkannt werden

Auf diese Art ist es möglich, Roboter mit eigenem Willen zu bauen. Im Wesentlichen ist das eine Programmierarbeit, und zwar eine kleinere. Die großen Arbeiten sind die Mustererkennung optisch/akustisch/semantisch und die Erschließung des Weltwissens, an denen die Forscher schon viele Jahre arbeiten. Das sind die Lernprogramme, von denen oben die Rede ist, und die Lern-Lernprogramme (mit denen die Computer lernen, zu lernen).

Man muss sich über die Rahmenbedingungen klar sein: Roboter können Gefühle haben, aber diese Gefühle sind von außen her zugänglich. Sie werden nicht in verborgenen Hormonkreisläufen verarbeitet wie beim Menschen, und die Entscheidungen sind auch nicht in einem schwer erfaßbaren Hirn versteckt. Vielmehr kann man nach Belieben dran drehen, ein anderes Gefühlsprogramm aufspielen und seine Parameter variieren.

Kopierverhinderung beim Computer ist schwierig; das ist nicht artgemäß, weil der Computer kaum was anderes macht als Kopieren. Deshalb kann man beim Roboter auch kaum den Zugang verwehren zu Gefühlen, zu Entscheidungen; das ist einfach nicht artgemäß. Deshalb wird man den Roboter auch gegen den Strich fahren können, man wird ihm alle Arten von Gefühlskostümen überstülpen bis hin zu Kunsteffekten und komischen Effekten.

Gewiss wird sich die Szene der Roboterschützer dann teilen, einmal diejenigen, die die Menschen vor den Robotern schützen, und dann diejeigen, die die Roboter vor den Menschen schüzen. Vielleicht wird man Tabus etablieren, was geschaltet werden darf, und die Steuerprogramme zertifizieren. Vielleicht wird man black boxen basteln, in denen sowas wie eine digitale Identität geschützt werden soll, womöglich gibt's sogar eine Emanzipationsbewegung für Roboter.

Vielleicht wird's dem Roboter dann wirklich ganz warm um den Akku. Das kann man so einrichten, nur muss man sich klar darüber sein, dass es willkürlich ist. Es kann ihm warm oder kalt oder ölig werden, und das kann er schön oder schlecht oder bedrohlich finden. Das vernünftige Kriterium ist, was wie Gefühle aussieht, das sind Gefühle, was sich wie Freier Wille anfühlt, das ist Freier Wille. Wer das bei Mensch und Roboter nicht akzeptieren mag, der ist auf dem Weg zum Dualismus.

Dem Menschen steht die digitale Manipulation seiner Gefühle und seines Willens ins Haus (siehe Entscheidungsverarbeitung), und die Gefühlswelt der Roboter ist der Manipulation ohnehin frei ausgesetzt. Da ist viel Raum zur Gestaltung, und wer die Gestalter sind, darüber braucht man sich keinen Illusionen hinzugeben.

Das sind diejenigen, die uns jetzt schon die Computer enteignen mit automatischen Updates und Sperren, gegen die man Jailbreaker-Software braucht. So dürfte es auch in der zukünftigen Roboterwelt zugehen, die kriegen Patches und Downloads eingetrichtert, und die Schalter haben die Softwarekonzerne in der Hand (und die US-Army).

Roboter mit Gefühlen? Ja, und die Gefühle werden designed von Apple/Google/Microsoft & Co.
 

Mehr zum Thema:
Dieser Beitrag wurde unter Wirtschaft, Wissenschaft veröffentlicht. Setze ein Lesezeichen auf den Permalink.

32 Antworten auf Roboter mit Gefühlen?

  1. Argutus sagt:

    Alle mentalen Eigenschaften, die ein Mensch hat, weil sein Körper sie ihm ermöglicht, muß man prinzipiell auch einer Maschine zubilligen. Der menschliche Körper ist ja eine Maschine. Zwar eine biologische, aber auch die gehorcht den gleichen Gesetzen der Physik und Chemie wie jede andere Maschine. Das Entscheidende ist ja nicht das Material sondern die kybernetische Strukur, also sozusagen der "Schaltplan":

    Obiges Statement ist übrigens philosophisch neutral und legt keineswegs, wie man beim flüchtigen Lesen vermuten könnte, eine materialistische Weltanschauung nahe.

    Pointiert ausgedrückt: wenn die durch die Evolution entstandene und  "menschlicher Körper" genannte materielle Maschine fähig ist eine Funktionseinzeit mit einer unsterblichen Seele einzugehen, dann kann das auch auch eine in einer Fabrik hergestellte künstliche Maschine mit analoger Struktur. Und wenn nicht, dann nicht.

  2. Hermann Geyer sagt:

    @ … was wie Gefühle aussieht, das sind Gefühle, was sich wie Freier Wille anfühlt, das ist Freier Wille. Wer das bei Mensch und Roboter nicht akzeptieren mag, der ist auf dem Weg zum Dualismus.

    Ich habe einige Erfahrung mit recht einfachen "Robotern", z.B. thermostatgesteuerten Heizgeräten. Nicht immer schalten die exakt gleich, und es ist auch schon vorgekommen, dass sie überhaupt nicht oder völlig falsch geheizt haben.

    Da ich aber nicht akzeptieren mag, denen "Gefühle" oder einen "Freien Willen" zuzugestehen: Inwiefern bin ich auf dem Weg zum Dualismus???

     

  3. austria sagt:

    der wesentliche Unterschied zwischen einem mechanischen Roboter mit programmierten Gefühlen und einem Menschen scheint mir das Bewusstsein zu sein. Dem Programmierer eines  Roboters mag zwar irgendwann eine vollsyntetische Nachbildung eines denkenden Menschens gelingen, jedoch kann ich mir bei allem nicht vorstellen, dass der Roboter sich seiner selbst bewusst wird, also über sein Dasein nachdenken kann um damit menschengleich zu werden. Sicher ist es möglich, auch eine Reflexion über die bisher "erlebten" Ereignisse zu programmieren, dabei handelt es sich jedoch immer um einen rein syntetischen Vorgang. Gefühle wie Glück, Leid, Euphorie, Trauer sind einem 0/1 Digitalrechner fremd und können ihm auch nicht eingepflanzt, sondern bestenfalls in einer täuschend echten Simulation nachgebildet werden. Das menschliche Gehirn funktioniert eben nicht digital, sondern ist eine Analog-"Maschine" mit einer Gensubstanz die sich über viele tausende von Jahren entwickelt hat. Auf Basis dieser Genetik ensteht von Geburt an (oder sogar vorher) durch komplexe Interaktion mit der Umgebung  ein spezifischer Charakter, der sich ständig weiterentwickelt.

    Einem Computer kann sicherlich ein bestimmtes Charaktermuster einprogrammiert werden und im Ergebnis wäre es dann sicherlich schwierig, die Handlungen von einem menschlichen Wesen zu unterscheiden. Was allerdings die Gefühle betrifft, welche beim Menschen durch eine komplexe Wechselwirkung biochemischer Prozesse enstehen, so können diese durch einen mechanischen Computer gemäß seiner Natur nicht erzeugt werden.   

              

  4. Wilfried Müller sagt:

    Ich stimme Argutus voll zu, allerdings gibt es anscheinend unterschiedliche Ansichten, was eine materialistische Weltanschauung ist. Ich war der Meinung, unsere wissenschaftliche Weltsicht ist so eine, im Gegensatz zum Dualismus.

    Hermann Geyer mag seinem Thermostaten keine "Gefühle" oder einen "Freien Willen" zuzugestehen, da geht er mit mir konform.

    Was aber, wenn austrias Fall eintritt, und es wäre sicherlich schwierig, die Handlungen von einem menschlichen Wesen zu unterscheiden? Dann hätte ich keine Probleme, von Gefühlen und Freiem Willen zu sprechen. Den Robotern kann man auch ein Bewusstsein programmieren, das ist einfach der Fokus auf die wichtigsten Abläufe in seinem Computer. Ich hab übrigens ein Konzept in der Schublade, wie man Gefühle, Wille und "Ich" programmieren kann, und da bin ich bestimmt nicht der Einzige, der solche Ideen verfolgt. Allerdings müssen erst die Grundprobleme gelöst werden, die Mustererkennung und der Umgang mit dem Weltwissen, und die sind viel schwieriger zu lösen. Wenn das mal gelöst ist, werden die Roboter sicherlich über sich selber nachdenken können, und über uns Menschen auch. Sie werden uns in den meisten Belangen überlegen sein, da kommt dann zum Tragen, dass die Roboter keine Jahrtausende brauchen, nicht mal Jahrzehnte zum Lernen, sondern dass alles gleich beim Bau draufgespielt wird, und bei jeder Generation besser. Austria sagt: Sicher ist es möglich, auch eine Reflexion über die bisher "erlebten" Ereignisse zu programmieren, dabei handelt es sich jedoch immer um einen rein syntetischen Vorgang. Gefühle wie Glück, Leid, Euphorie, Trauer sind einem 0/1 Digitalrechner fremd und können ihm auch nicht eingepflanzt, sondern bestenfalls in einer täuschend echten Simulation nachgebildet werden. Diesen Unterschied digital/analog halte ich für unwesentlich. Aus meiner materialistischen Sicht ist die Simulation auch nicht anders als die Realität, und Gefühle aller Art, sogar bis jetzt unbekannte, sind programmierbar. Aber auch manipulierbar, wie gesagt. Bin gespannt, wann es soweit ist.

  5. Hermann Geyer sagt:

    Wilfried Müller sagt:

    27. April 2014 um 06:52

    Hermann Geyer mag seinem Thermostaten keine "Gefühle" oder einen "Freien Willen" zuzugestehen, da geht er mit mir konform.

    @ Das vernünftige Kriterium ist, was wie Gefühle aussieht, das sind Gefühle

    Ein spinnerter Thermostat (oder als Beispiel ein PC) sieht aber durchaus manchmal so aus, als hätte er Gefühle. Ihre Statements erscheinen mir widersprüchlich. Gibt es für Sie noch zusätzliche "vernünftige Kriterien", einem Gerät Gefühle zuzuschreiben? Was sieht denn Ihrer Meinung nach wann (unter welchen Voraussetzungen, …) wie Gefühle aus?

  6. Wilfried Müller sagt:

    Ich glaube beim Thermostaten sind das die Gefühle des Anwenders. Das Computerkriterium war, wenn mans von menschlichen Gefühlen/Antworten nicht unterscheiden kann, dann sind's echte. Das ging bei dem Quatschprogramm Eliza schon in die Richtung, und es soll Leute gegeben haben, die darauf eingestiegen sind, obwohl immer nur die Eingabe als Frage variiert zurückkam. Der Roboter/Computer sollte also in der Lage sein sich zu artikulieren und von Gefühlen und Willen zu sprechen, und der Normalbürger sollte nicht merken, dass es programmiert ist.

  7. Argutus sagt:

    Wilfried Müller sagt:27. April 2014 um 06:52

    allerdings gibt es anscheinend unterschiedliche Ansichten, was eine materialistische Weltanschauung ist. Ich war der Meinung, unsere wissenschaftliche Weltsicht ist so eine, im Gegensatz zum Dualismus.

    Das Pendant zum Dualismus ist der Monismus. Letztlich ist diese Einteilung aber nicht sinnvoll, denn in wieviele Kategorien man die Gesamtheit des Seienden einteilt, ist letztlich Geschmackssache. Sie gehören ja alle derselben Wirklichkeit an, so daß jeder Dualismus nur ein Symptom mangelnden Verständnisses der Natur ist. Da es nur eine Realität geben kann, ist somit der Monismus logisch trivial.

    Der Materialismus ist streng genommen nur eine terminologische Gepflogenheit. Alles Existierende gilt als spezielle Erscheinungsform der Materie, die dabei die gleiche Funktion ausfüllt wie das Wasser bei Thales oder die Luft bei Anaximenes.

    Wenn alles Wasser, alles Luft oder alles Materie ist, dann weiß man auch nicht mehr, als daß jemand möchte, das das so genannt wird. Solche Aussagen sind inhaltsleer und somit sinnlos.

    Im 19. Jahrhundert wurde der Begriff Materialismus von den Physikern gerne fälschlich für ihre Weltsicht verwendet. Fälschlich deshalb, weil man sehr wohl um die Existenz von Phänomenen wußte, die damals nicht als materiell betrachtet wurden (Beispiele: Raum, Zeit, Kraft).

    Heute ist das wissenschaftliche Weltbild weder materialistisch noch irgendeiner anderen Philosophie verpflichtet sondern nur der wissenschaftlichen Methode: Phänomene, die sich empirisch feststellen lassen, existieren, und über solche, die sich nicht feststellen lassen, werden solange keine Aussagen gemacht, bis sich das allenfalls ändert.

    Beispielsweise konnte die Wissenschaft bis jetzt Gespenster Verstorbener nicht nachweisen. Deshalb ist das in der Physik kein Thema. Sollten die sich eines Tages doch nachweisen lassen,  dann wird halt eine Theorie gesucht, die sie erklären kann. Bleibt alles im Rahmen – science as usual.

     

  8. austria sagt:

    ~~Wilfried Müller sagt: 
     27. April 2014 um 06:52 

    ~~Aus meiner materialistischen Sicht ist die Simulation auch nicht anders als die Realität, und Gefühle aller Art, sogar bis jetzt unbekannte, sind programmierbar. Aber auch manipulierbar, wie gesagt.

    die Simulation ist immer ein Versuch einer weitgehend kompletten Nachbildung einer Realität.

    Weitgehend heißt, es gibt auch Unterschiede. Wie lassen sich diese hier klassifizieren?

    1) Gefühlsaudrücke eines Roboters sind rein mechanischer Natur, es werden also keine Glücks- Stress- oder anderen Hormone wie beim Menschen dabei ausgeschüttet. Diese Robotergefühle sind zwar auch "real" als Ergebnis eines Rechenprozesses vorhanden, enstprechen aber nicht dem allgemeinen Anspruch bezüglich Authenzität.

    2) Die Glaubwürdigkeit ist bei syntetischen Gefühlen nicht gegeben, da sie gemäß 1) nicht authentisch sind und immer eine mögliche Manipulationsabsicht unterstellt werden muss. Man müsste grundsätzlich misstrauisch sein, solange man das "Gefühlsprogramm" nicht kennt. Was also wäre dann der Sinn, Robotern Gefühlen einzuprogrammieren, wenn diese sowieso nicht "ernstgenommen" werden können sondern nur ein Artefakt der programmierenden Instanz sind? Was mir viel wichtiger erscheint, ist die Programmierung einer moralischen Instanz (Ethik-Regeln) bei Robotern im Kampfeinsatz. Dabei kann man Gefühle außen vor lassen, da diese im Ergebnis nicht interessieren. 

  9. Hermann Geyer sagt:

    Wilfried Müller sagt:  27. April 2014 um 11:44

    @ … was wie Gefühle aussieht, das sind Gefühle, was sich wie Freier Wille anfühlt, das ist Freier Wille. Wer das bei Mensch und Roboter nicht akzeptieren mag, der ist auf dem Weg zum Dualismus.

    1 Bin ich Ihrer Meinung nach allen meinen Äußerungen dazu "auf dem Weg zum Dualismus"?

    2 Wenn bei einem Roboter reicht, ihm Gefühle zuzuordnen, sofern der "Normalbürger" (was ist das bitte?) den Eindruck gewinnt, da seien reale Gefühle – wieso sollte man dann nicht auch Gott für so real halten, wie es der Normalbürger empfindet?

  10. Wilfried Müller sagt:

    Danke für die materialistische Aufklärung, Argutus. Ich würde es aber anmaßend finden zu sagen, aus meiner wissenschaftlichen Weltsicht, weil ich kein Wissenschaftler bin. Immerhin hab ich mal wissenschaftlich gearbeitet und für Rechenzeit in Millionenhöhe Simulationen gemacht, und so kann ich austrias Verständnis von Simulation präzisieren: Man macht keine komplette Abbildung der Realität, sondern eine möglichst einfache, die aber die Knackepunkte einfängt. Aus meiner Sicht sind die menschlichen Hormonausschüttungen auch nur "materialistisch", und ihnen kommt prinzipiell kein höherer Gefühlswert zu als programmierten Robotergefühlen. Für mich sind die authentisch und glaubwürdig, unabhängig von den Manipulationsmöglichkeiten, die sich ja beim Menschen auch zunehmend erschließen. Über die Programmierung von ethischen Regeln wird schon heftig nachgedacht. Übrigens kann man die Gefühle nicht außen vor lassen, denn was ist Ethik anderes als mehr oder weniger logisch verarbeitete Gefühle?

    Mein Kommentar hatte sich mit Hermann Geyers überschnitten, deshalb diese Ergänzung: Das Argument mit dem Normalbürger sehe ich ein, aber das  Kriterium von Turing ist tatsächlich so, wenn man's vom Menschen nicht unterscheiden kann, dann muss es als gleich bewertet werden. Das hat schon was mit dem Normalbürger zu tun, in dem Sinn dass keine Unterbelichteten gemeint sind, für die Eliza ausreicht, und keine Cracks mit speziellen Kenntnissen. Hermann Geyer hat aber recht, mit demselben Argument kann man einen Gott postulieren.

  11. Hermann Geyer sagt:

    Gut, danke.

    Allerdings weiß ich noch immer nicht, ob Sie mich als auf "dem Weg zum Dualismus" einschätzen.

    Dass ich einem gefinkelt programmierten Computer, den ich beim Turing-Test von einem Menschen nicht unterscheiden könnte, dann (subjektiv) auch Gefühle unterstellen würde, nehme ich an.

    Bleibt die Frage, ob "freier" Wille für Menschen, Tiere oder Geräte überhaupt ein sinnvoller Begriff sein kann. Die bringe ich aber beim Artikel "Hintergrundüberlegungen" an.

  12. austria sagt:

    ~~Wilfried Müller sagt:

    ~~Übrigens kann man die Gefühle nicht außen vor lassen, denn was ist Ethik anderes als mehr oder weniger logisch verarbeitete Gefühle?

    man stelle sich vor ein Kampfroboter bringt jemanden um auf Basis bestimmter Ethikregeln. Dabei ist es völlig irrelevant, ob der Roboter Gefühle bei dieser Handlung ausdrückt. Der rein mechanische Tötungsakt bedarf dieser nicht. Ethik verstehe ich hier als objektiv anerkannte moralische Regeln, welche nicht auf Basis von Gefühlen wie Freude, Trauer, Wut, Hass etc. beruhen sondern nur dem moralisch zugrundegelegtem (emotionslosen) Handlungsprinzip unterworfen sind.    

    ~~Aus meiner Sicht sind die menschlichen Hormonausschüttungen auch nur "materialistisch", und ihnen kommt prinzipiell kein höherer Gefühlswert zu als programmierten Robotergefühlen

    Aus meiner Sicht haben die "echten" menschlichen Gefühle einen höheren Stellenwert als programmierte Gefühle. Wenn wir anfangen uns mit Robotern gleichzustellen, könnte es passieren, das wir bald ihre Sklaven sind. Die Menschheit hat m.E. die Verantwortung, diese krtitische Technologie mit allen Ihren Auswirkungen sorgfältig einzusetzen und zu kontrollieren, und die moralische Oberinstanz zu behalten. Ich würde es für sinnvoll erachten, einen weltweiten Ethikrat für sämtliche autonomen Kampf- und Kriegsroboter einzusetzen, welche z.B. auch eine Art "Zulassung" betreibt, um die Kontrolle darüber zu behalten. Leider wird das nach dem derzeitigen Verhältnis zwischen den großen Militärmächten wohl schwer umzusetzen sein…          

  13. austria sagt:28. April 2014 um 20:43

    OMG! Ethikräte haben wir ja nun bereits im Überfluss. Da sitzen dann eh wieder nur Pfaffen drin. Wollen wir denen das überlassen?

  14. austria sagt:

     Frank Berghaus sagt:  28. April 2014 um 22:21

     ~~OMG! Ethikräte haben wir ja nun bereits im Überfluss. Da sitzen dann eh wieder nur Pfaffen drin. Wollen wir denen das überlassen?

    es gibt Grundsätze für die Besetzung, z.B. auch im offenbar zitierten  im PR-Ethik Rat, s. Auszug:

    ~~Breiter Querschnitt durch die Gesellschaft

    Die Mitglieder sollen aus möglichst verschiedenen Bereichen (Wissenschaft, Wirtschaft, öffentliche Hand, NGOs etc.) kommen, in denen sie bekannt und anerkannt sind, und auch als Personen (bezüglich Alter, Geschlecht etc.) einen Querschnitt durch die Gesellschaft repräsentieren.

    Also eine einseitige Besetzung ist zumindest gemäß Satzung nicht erkennbar. 

  15. austria sagt: 28. April 2014 um 22:48

    Nehmen Sie wenigstens gelegentlich auch die Realität zur Kenntnis?

    Das darf doch nicht wahr sein! Sie befinden sich hier auf einem humanistischen Blog, auf dem der überbordende Einfluss der Religioten bekämpft wird. Wollen Sie das verharmlosen?

  16. Wilfried Müller sagt:

    Ich bin auch skeptisch gegenüber Ethikräten wie Frank Berghaus, mit Grund, wie sich bei Gendiagnostik usw. gezeigt hat. Aber ich sehe auch den Bedarf nach einer moralischen Oberinstanz, den austria formuliert. Das sollte z.B. im Humanistischen Manifest formuliert sein und ins Grundgesetz aufgenommen werden. Allerdings sind die parlamentarischen Lösungen auch in Verruf, auch die internationalen. Frage also, wo kommt die Oberinstanz her?

    In einem Punkt widerspreche ich austria, wenn er anerkannte moralische Regeln, welche nicht auf Basis von Gefühlen … beruhen sondern nur dem moralisch zugrundegelegtem (emotionslosen) Handlungsprinzip unterworfen sind postuliert. Die Psychologie sagt uns, dass es das nicht gibt, denn alle Ziele/Willensausprägungen/Prinzipien/Wertungen basieren auf Gefühlen. Nur aufgrund von Logik lässt sich kein Ethos formulieren, sonst hätten wir das schon.

    In puncto Dualismus ist mir verdächtig, wenn austria von "echten" menschlichen Gefühlen spricht. Was ist da grundsätzlich anders als bei programmierten Gefühlen? Bei Hermann Geyer habe ich diese Bedenken nicht, unser Dissens kommt aus der Perspektive. Er sieht die Sache makroskopisch, ich gehe sie aus der mikroskopischen Sicht an, und wir kommen zum gegenteiligen Ergebnis. Ich halte allerdings die Überlegungen von MSS für falsch, auf die Hermann Geyer sich stützt, weil die auf dem Weltbild der klassischen Physik basieren.

  17. Argutus sagt:

    Ich bin dafür sämtliche Ethik-Räte abzuschaffen.

    Sollen sie dazu dienen herauszufinden was gut und was böse ist, dann machen sie sich ohnedies nur lächerlich, denn solche Urteile sind nicht objektivierbar.

    Sinnvoll kann es nur sein herauszufinden, welche ethischen Maximen derzeit in der Gesellschaft mehrheitlich konsensfähig sind. Das ist aber eine demoskopisch-wissenschaftliche Frage. Zu ihrer Beantwortung sollten von Fachleuten die entsprechenden soziologischen Feld-Studien unternommen werden. Statt dessen irgendwelche mehr oder weniger (in der Praxis meist weniger) repräsentative Leute auf Sitzungen plaudern zu lassen wird da wohl kaum solide Erkenntnisse bringen.

    Fazit: Ethik-Räte sind Unfug.

  18. pinetop sagt:

    Einer der angesehensten Philosophen der Gegenwart, Jürgen Habermas, mutet den säkularen Bürgern einen Dualismus zu. Einerseits das Weltbild der Wissenschaft (zu denen er auch die Philosophen zählt) und andererseits das "Wahrheitspotential der Religionen". Religionsferne Bürger haben sich nach seiner Auffassung der Kritik an den Religionen zu enthalten.

  19. austria sagt:

    Frank Berghaus sagt:

    28. April 2014 um 23:18

    Das darf doch nicht wahr sein! Sie befinden sich hier auf einem humanistischen Blog, auf dem der überbordende Einfluss der Religioten bekämpft wird. Wollen Sie das verharmlosen?

    > Nur ruhig Blut bewahren. Selbstverständlich nehme ich das zur Kenntins, mir scheint allerdings der religiöse Einfluss wird von Ihnen etwas überberbewertet zu sein. Wahrscheinlich haben Sie recht, daß die derzeitige Konstellation der meisten Ethik-Räte nicht zielführend ist im Sinne der von Argutus zitierten  Aufgaben: "herauszufinden, welche ethischen Maximen derzeit in der Gesellschaft mehrheitlich konsensfähig sind". Generell die Ethik-Räte als Unfug zu bezeichen, nur weil sie nicht so funktionieren wie sie sollten- das halte ich allerdings für Unfug. Was wäre denn die Alternative? Etwa ein Verfassungsorgan?   

    Zum Kommentar von Wilfried Müller: "In puncto Dualismus ist mir verdächtig, wenn austria von "echten" menschlichen Gefühlen spricht. Was ist da grundsätzlich anders als bei programmierten Gefühlen?"

    Warum verdächtig? Verstehe ich nicht. Wer andererseits nicht versteht was da anders ist gegenüber programmierten Gefülen tut mir leid…

     

  20. Christoph Deblon sagt:

    Man kann die Frage nach den progammierten Gefühlen ja auch anderherum aufziehen:

    Wann und wie unterscheiden sich solche Gefühle von denen einer Mamapuppe?

  21. austria sagt:

    Christoph Deblon sagt:

    29. April 2014 um 22:55

    Man kann die Frage nach den progammierten Gefühlen ja auch anderherum aufziehen:

    Wann und wie unterscheiden sich solche Gefühle von denen einer Mamapuppe?

    Die Mamapuppe hat nur simulierte (vorgetäuschte) Gefühle für Trainings- und Demozwecke. Das Ding ist kein lebender Organismus und hat deswegen keine Gefühle.

    Man darf sich doch nicht vom Ergebnis einer guten Simulation täuschen lassen, sonst könnten ja kinderlose Mütter zukünftig Mamapuppen kaufen statt eine aufwändige und teure Adoption anzustrengen. Glaubt man hier tatsächlich, diese Puppen wären in der Lage, die emotionalen Bedürfnisse der "Mutter" dauerhaft zufriedenzustellen?

     

  22. Christoph Deblon sagt:

    Eben, und daher wüßte ich gern von den Befürwortern der Nichtunterscheidung, wann und wie sich eine perfektere (perfekte) Simulation von dem Mama-Puppen-Fall unterscheidet.

    Übrigens: der Turing-Test bezieht sich nicht auf Gefühle, sondern auf Intelligenz, von der vorausgesetzt wird, daß sie sich auch bei rein schriftlicher Kommunikation adäquat ausdrücken läßt. 

  23. Wilfried Müller sagt:

    Das Kriterium für Gefühle muss natürlich genauso lauten. Mein Argument für die Nichtunterscheidung:

    Sobald es hinreichend komplex ist, so dass man die deterministische Verarbeitung nicht mehr erkennen kann, ist die Computerprogrammierung der menschlichen Gefühlshervorbringung gleichwertig. Beides sind Abläufe ohne Wunder, die eingreifen, sofern man nicht den Dualismus vertritt und sagt, da gibt's noch was "Echtes" außerhalb der Naturgesetze. Von mir aus kann man noch weitere Kriterien verlangen, außer dass es den Naturgesetzen folgt und komplex genug ist. Nur eben keine Argumente auf Makro-Basis, weil dies ja eine Argumentation auf Mikro-Ebene ist. Und man darf auch nicht die "perfekte Simulation" verlangen, denn damit wird die menschliche Art der Verarbeitung absolut gesetzt. Die robotermäßige Art wird ganz anders sein und trotzdem gleichwertig.

  24. Hermann Geyer sagt:

    Wilfried Müller sagt: 29. April 2014 um 06:09

    @ …. Hermann Geyer … unser Dissens kommt aus der Perspektive. Er sieht die Sache makroskopisch, ich gehe sie aus der mikroskopischen Sicht an, und wir kommen zum gegenteiligen Ergebnis. Ich halte allerdings die Überlegungen von MSS für falsch, auf die Hermann Geyer sich stützt, weil die auf dem Weltbild der klassischen Physik basieren.

    Lieber Wilfried, die Ursachen für unseren Dissens sehe ich nicht darin, dass ich mich auf „klassische“ Physik („makroskopisch“ in Ihrer Diktion) beschränke. Denn ich habe im Artikel „Hintergrundüberlegungen …“ wie auch in einigen Kommentaren die Wirkung von quantenmechanischen Zufallsereignissen in die Überlegungen einbezogen.

    Als Ursachen für unseren Dissens vermute ich vielmehr Inkonsistenzen in Ihrem Begriffsverständnis, was den Willen und seine allfällige Freiheit betrifft. Einerseits sagten Sie

    15. April 2014 um 12:19

    zu A) Aus der Sicht ist die Welt frei, auch der Stein, und wenn man dem Tier einen Willen zuerkennt, ist es ein Freier Wille. Ich sehe eigentlich auch keinen Unterscheid zwischen Wille und Freier Wille. Ein unfreier Wille ist für mich ein Widerspruch in sich.

    zu B) Egal um was es geht, alle Entscheidungen basieren letztlich auf Quantenereignissen, weil die nun mal den Ablauf der Welt ändern und sonst nix. Im Übrigen muss es kein  Schmetterlingseffekt sein, sondern es kann auch ein Röntgen-Photon das Erbgut ändern usw. Der Effekt muss auch nicht notwendigerweise im Stein oder im Hirn passieren, sofern nur seine Auswirkungen müssen dorthin gelangen. Das ist dadurch gegeben dass alles mit allem zusamenhängt. (Ende des Zitats)

    Andererseits sagten Sie aber

    17. April 2014 um 10:27

    Meine Sicht ist, dass Soldaten sehr wohl einen Freien Willen haben. Aber wenn sie danach handeln, werden sie so hart bestraft, dass sie lieber die Willensentscheidung treffen, zu gehorchen. Anders sehe ich es bei frühkindlich Indoktrinierten, wo die Bremse im Hirn verfestigt ist. Die können gewisse Dinge kaum noch wollen, andere aber doch, deshalb ist ihr Freier Wille nach meiner Auffassung eingeschränkt. (Ende des Zitats)

    Die auffäligste Inkonsistenz ist wohl, dass Sie einen eingeschränkten Willen trotz dieser Einschränkung als Freien Willen bezeichnen, wiewohl Sie selber Beispiele bringen, dass der Wille mitunter sehr stark von Umgebungsbedingungen beeinträchtigt sein kann. Sachzwängen (oder Zwängen ganz allgemein) unterliegt nun mal jeder, und die bestimmen mitunter sehr kräftig mit, was man will – und Zwang ist in diesem Zusammenhang das genaue Gegenteil von Freiheit.

    Sie setzen dagegen immer wieder „frei“ mit „zufällig“ gleich, und das ist ein fundamentaler  Irrtum. Gerade auch Zufälle können es ja sein, die mich zu einer Entscheidung zwingen – beispielsweise eine plötzliche Bedrohung die mich veranlasst, sofort Schutz zu suchen.

  25. ilex (E. Ahrens) sagt:

    Wilfried Müller sagt: 30. April 2014 um 08:29  = außer dass es den Naturgesetzen folgt und komplex genug ist

    Eine zweischneidige Argumentation. Was ist denn mit den Gefühlen meiner Hauskatze? Die sind erkennbar einfacher als die eines Menschen (jedenfalls für Menschen), aber folgen ja wohl den Naturgesetzen. Dennoch sind sie nicht "robotermäßig". Und die emotionalen Interaktionen zwischen Hauskatzen selbst sind offensichtlich deutlich komplizierter als die zwischen Katzen und Menschen, wenn man das so beobachtet und folgen eigenen Regeln (ja, sorry für dieses Beispiel mal wieder, ist aber ein sehr geeignetes Beobachtungsobjekt für ungebundenes Tierverhalten).

    Natürlich kann man eine Simulation so realistisch aufbauen, dass man sie schwer durchschaut. Ist und bleibt aber eine Simulation.

  26. Wilfried Müller sagt:

    Zu Ilex: Ich vertrete die Ansicht, dass die Simulation einer Katze gleichwertig mit einer Katze sein kann. Ich kann das so programmieren, dass es beliebig komplex werden kann. Oder umgekehrt, wenn man die Katze gut genug durchschaut, ist sie auch robotermäßig.

    Zu Hermann Geyer: Für mich ist das keine Inkonsistenz, dass der eingeschränkte Wille ein Freier Wille ist. Letztlich ist doch jeder Wille eingeschränkt, und für mein Verständnis reicht es, wenn innerhalb dieser Einschränkung frei entschieden wird, d.h. letztlich nicht deterministisch. Das ist eben die Sicht aus der Mikro-Perspektive, während die Makro-Perspektive allerlei Kriterien ersinnt, um frei und unfrei zu unterscheiden. Da reden wir im Grunde von verschiedenen Sachen, wie sich auch im Zufalls-Argument zeigt. Für mich ist das Zufallselement die Bedingung für einen Freien Willen, und ich meine damit den (Quanten-)Zufall, ohne den gibt es m.E. keinen Freien Willen. Der makroskopische Zufall kann mir Zwänge bescheren, auf die ich determiniert reagiere. Wenn ich das tue, habe ich trotzdem prinzipiell einen Freien Willen, auch wenn da einer von vielen Verhaltensmechanismus abläuft.

    Beim Beobachten von kleinen Kindern kann man schön sehen, wie da der Zufall regiert, ehe sich die deterministischen Strukturen aufbauen. Für mich ist das ein Argument dafür, wie bestimmend der Zufall in uns wirkt, und ich interpretiere das als mehr Freiheit gegenüber dem angepassten Erwachsenen.

  27. Hermann Geyer sagt:

    Wilfried Müller sagt:  30. April 2014 um 12:08

    Zu Hermann Geyer: Für mich ist das keine Inkonsistenz, dass der eingeschränkte Wille ein Freier Wille ist. Letztlich ist doch jeder Wille eingeschränkt, und für mein Verständnis reicht es, wenn innerhalb dieser Einschränkung frei entschieden wird, d.h. letztlich nicht deterministisch. Das ist eben die Sicht aus der Mikro-Perspektive, während die Makro-Perspektive allerlei Kriterien ersinnt, um frei und unfrei zu unterscheiden. Da reden wir im Grunde von verschiedenen Sachen, wie sich auch im Zufalls-Argument zeigt. Für mich ist das Zufallselement die Bedingung für einen Freien Willen, und ich meine damit den (Quanten-)Zufall, ohne den gibt es m.E. keinen Freien Willen. Der makroskopische Zufall kann mir Zwänge bescheren, auf die ich determiniert reagiere. Wenn ich das tue, habe ich trotzdem prinzipiell einen Freien Willen, auch wenn da einer von vielen Verhaltensmechanismus abläuft.

    Nun ja, das ist eben Ihr ganz persönliches Sprach- und Begriffsverständnis, mit dem Sie vermutlich ziemlich allein auf weiter Flur sind – weder hier im Forum noch wo anders ist mir jemand untergekommen, der diesbezüglich so denkt wie Sie. Aber dass so etwas zu respektieren ist habe ich ja bereits gesagt. Aneinandervorbeireden ist da halt leider vorprogrammiert.

  28. ilex (E. Ahrens) sagt:

    Wilfried Müller sagt: 30. April 2014 um 12:08 = Ich kann das so programmieren, dass es beliebig komplex werden kann. Oder umgekehrt, wenn man die Katze gut genug durchschaut, ist sie auch robotermäßig.

    Viel Glück.

    Außerdem = je mehr man die Katze durchschaut (gilt auch ähnlich für kleine Kinder), um so mehr sind ihre Äußerungen als weniger robothaft verstehbar.

  29. Wilfried Müller sagt:

    Ilex: Viel Glück – das Konzept hab ich schon in der Schublade.

    Hermann Geyer: Nun ja, das ist eben Ihr ganz persönliches Sprach- und Begriffsverständnis … Ich denke eher dass ich nah dran bin, aber eben aus mikroskopischer Sicht. Auf Hermanns Seite sehe ich eine Vermischung von Freiheit und Wille. Wenn einem äußere Zwänge auferlegt werden, wird nicht der Wille beschnitten, sondern die Freiheit. Nur bei inneren Zwängen aus Indoktrination oder Handlungsmechanismen wird der Wille eingegrenzt. Sachzwänge (oder Zwänge ganz allgemein) haben aus meiner Sicht keine Auswirkungen auf den Willen. Ich will trotzdem dasselbe, auch wenn ichs nicht machen kann.

  30. Hermann Geyer sagt:

    Wilfried Müller sagt: 30. April 2014 um 14:44

    1 Schön für Sie, wenn Sie glauben, "ganz nah dran zu sein". Schön für uns wäre, wenn Sie sagen würden, woran. An einer Definition der sogenannten Willensfreiheit? Die haben wir ja immer noch nicht.
    2 Was vermische ich? Wenn Zwang -> Freiheitsbeschränkung -> unter Umständen Willensänderung. Sie bringen ja selbst mit der Indoktrination ein gutes Beispiel im Sinn meiner Aussage.

  31. Wilfried Müller sagt:

    1. Dazu ein Link auf den Independent von heute, 2.5., Steven Hawking spricht nochmal von dem großen Durchbruch der Computerintelligenz, den ich auch erwarte:

    Looking further ahead, there are no fundamental limits to what can be achieved: there is no physical law precluding particles from being organised in ways that perform even more advanced computations than the arrangements of particles in human brains. An explosive transition is possible, although it might play out differently from in the movie: as Irving Good realised in 1965, machines with superhuman intelligence could repeatedly improve their design even further, triggering what Vernor Vinge called a "singularity" and Johnny Depp's movie character calls "transcendence".

    2. Äußere Zwänge sind keine Willensänderung, und Indoktrinierung ist Verdummung, nicht Zwang. Gegen den Zwang lehnt man sich auf, gegen die Verdummung ist man machtlos, die geht am Willen vorbei.

  32. Hermann Geyer sagt:

    Schade, also wieder keine Definition der Willensfreiheit.
    Aber ich denke, so können wir es stehen lassen, es war eine wichtige Aufklärungsarbeit pro und kontra der sogenannten Freiheit des Willens, und ich bedanke mich bei Ihnen.

Schreibe einen Kommentar