1

Gibt es die reine Wissenschaft?

PhilosophyÜberlegungen von Andreas Müller.

“Die Idee der Wertneutralität wird in den Wissenschaften häufig zumindest implizit in Anspruch genommen, da unterstellt wird, dass für die Akzeptanz oder Ablehnung einer Theorie alleine die Fakten und nicht Werte der Wissenschaftler ausschlaggebend sind. Historisch entscheidend für diese Annahme ist der britische Empirismus und insbesondere David Humes Formulierung des Sein-Sollen-Fehlschlusses.[1] Hume argumentierte, dass es prinzipiell nicht möglich sei, von Faktenbeschreibungen auf Werturteile zu schließen. Auch heute noch wird diese These häufig mit dem Verweis auf die prinzipielle Verschiedenheit von Fakten- und Werturteilen vertreten. Allerdings ermöglicht eine solche Unterscheidung auch den umgekehrten Schluss, dass man nie von einem Wert- auf ein Faktenurteil schließen könne.

Die bekannteste Formulierung einer derartigen These findet sich bei Max Weber, der auch die potentielle Wertfreiheit der Sozialwissenschaften verteidigte.[2] Wissenschaftliche Theorien hätten das Ziel, Fakten in der Welt zu beschreiben und für dieses Ziel seien Werturteile unerheblich. Anders formuliert: Für die Beantwortung der Frage „Was ist in der Welt der Fall?“ sei eine Beantwortung der Frage „Was sollte in der Welt der Fall sein?“ irrelevant.”

(Wikipedia, Wertfreiheit)

Da Ayn Rands objektivistische Philosophie die Sein-Sollen-Dichotomie leugnet, kann man sich fragen, was sie zur Wertneutralität der Wissenschaft zu sagen hat. Es gibt verschiedene Interpretationen, was die Wertfreiheit der Wissenschaften eigentlich bedeuten soll. Eine Idee lautet, dass reine Empirie wertneutral sei. Fakten sind Fakten. Egal, wie man sie bewertet. Und die Empirie befasst sich jeweils mit der reinen Erhebung von Fakten in einer Spezialwissenschaft.

Da sich aber auch Philosophie mit Fakten befasst (bzw. befassen sollte) und somit die Tatsachen der Alltagsbeobachtung und daraus abgeleitete Schlüsse die Grundlage der Spezialwissenschaften bilden, ebenso wie die Epistemologie die wissenschaftliche Methode bestimmt, ist eine philosophiefreie, reine “Zahlenwissenschaft” undenkbar. Wer Steine erforscht, muss zunächst wissen, was Steine sind, also welche Natur sie haben (unbelebte Natur, keine Initiierung eigener Aktivität, Umwelteinflüssen ausgeliefert) und auch, was seine Forschung bedeutet. Beschreibt sie die Realität oder nur unsere Vorstellung von Steinen? Wer Menschen erforscht, muss ebenso zunächst eine allgemeine Vorstellung davon haben, was ein Mensch ist. Diese Vorstellung ist ebenfalls von Fakten abgeleitet, aber von den eigenen Sinnesdaten und nicht von den isolierten Beobachtungen einer Spezialwissenschaft.

Was bringt es, den Menschen zu beschreiben, wenn man kein Menschenbild (= Metaphysik) voraussetzt? Welchen Nutzen hat es, wenn man feststellt, dass immer mehr Menschen in die Städte ziehen, wenn man nicht weiß, was Menschen sind und demnach nicht die blasseste Vorstellung haben kann, warum diese Entitäten nur in die Städte ziehen könnten? Werden sie vom Wind dorthin geweht? Nein, denn Menschen erzeugen selbst Handlungen durch eine freie Willensentscheidung. Doch halt! Das ist bereits Metaphysik, also Philosophie. Ohne Kenntnis der menschlichen Natur könnte ein Soziologe ebenso der Meinung sein, Menschen würden in die Städte geweht werden. Er kennt aus der Einzeluntersuchung seiner Spezialwissenschaft schließlich nur die Fakten: Mehr Menschen in Städten.

In den Wirtschaftswissenschaften wird das Problem besonders deutlich. Rein empirisch kann ich feststellen, dass die Staatsverschuldung Deutschlands im Jahre 2012 81,9 Prozent des Bruttoinlandsproduktes (Wert aller Güter und Dienstleistungen, die in einem Jahr innerhalb der Landesgrenzen einer Volkswirtschaft erwirtschaftet werden) betrug. Unsere Verschuldung ist also fast so hoch wie unsere Produktivität. Wir müssen fast so viele Werte zurückgeben, wie wir hervorbringen. Während Objektivisten und Austrians (Vertreter der Österreichischen Schule) dies für ein gravierendes Problem halten, weil Steuern steigen, das Geld immer weniger wert ist und sich Sparen und Investieren kaum noch lohnen, die für das Wirtschaftswachstum grundlegend sind, so sagen die Keynesianer: “Na und? Auf lange Sicht sind wir alle tot. Schulden (deficit spending) sind gut, weil man damit die Nachfrage fördern kann und Schulden sind kein Problem, denn die kann man durch Inflation bezahlen. Es ist schlecht, wenn die Leute sparen, denn das führt zu weniger Konsum und somit zu einer Rezession. Also ist es ganz recht, dass wir so viele Schulden angehäuft haben und am besten, wir häufen noch ein bisschen mehr an. Staaten können sowieso nicht Pleite gehen.”

Die Fakten sind dieselben. Ein reiner Empiriker kann überhaupt nichts mit diesen Fakten anfangen, weil er nicht in der Lage ist, sie richtig einzuordnen und zu bewerten.

Ein anderes Beispiel: Es gibt zunehmend viele Menschen, die nicht mehr der Meinung sind, dass Wirtschaftswachstum etwas Gutes ist. Angeblich zerstört Wirtschaftswachstum die Erde. Bekommen sie ihren Willen, würden unsere Schulden über das BIP hinaus anwachsen. Wir müssten dann mehr zurückgeben, als wir hervorbringen, bis wir nichts mehr haben. Was Objektivisten für eine schreckliche Vorstellung halten, gefällt den Ökologen ausgenommen gut. Denn wenn wir eine Weile lang mehr zurückgegeben haben, als wir hervorbringen, dann ist am Ende keine Zivilisation mehr übrig. Und was bleibt, ist der Urmensch im Urwald. Und schon sind wir zurück zur Natur gereist. Aus demselben Faktum werden unterschiedliche Schlüsse gezogen, je nach der Philosophie.

Eine theoriefreie Ökonomik könnte nichts anderes, als mit Zahlen um sich werfen. Sie könnte die Frage nach Kausalität oder Korrelation nicht länger beantworten, denn die Methode, diese zu beantworten, ist eine philosophische. Mit anderen Worten könnte eine theoriefreie Ökonomik feststellen, dass an einem bestimmten Ort zu einer bestimmten Zeit unter der Bedingung der Einführung eines Mindestlohns weniger Jobs vorhanden sind als vor der Einführung des Mindestlohns. Sie könnte überhaupt nichts daraus schlussfolgern, sie könnte auch nicht aufzeigen, ob der Mindestlohn irgendetwas mit dem Jobverlust zu tun hat, denn keine Wissenschaft der Welt hat die Myriaden Faktoren im Auge, die eine Rolle spielen könnten, wenn man nichts weiß über den Menschen. Außerdem: Vielleicht ist der Mensch das Lebewesen, das von der Luft lebt und das Arbeit für unnötige Anstrengung hält. Dann ist ein Mindestlohn eine großartige Idee, weil dann weniger Menschen arbeiten müssen.

Es gibt keine Wissenschaft ohne Philosophie.

Quelle: http://www.feuerbringer-magazin.de/2013/06/06/gibt-es-die-reine-wissenschaft/#more-4710

 

Die Meinung des Gastautors muss nicht der Redaktionsmeinung entsprechen.

 

Weitere Arbeiten desselben Autors siehe hier.

 




Evolutionäre Erklärungen des Geistigen II

II. Bad Science

Unter Geistigem wollen wir hier Charakterisierungen von Lebewesen als Personen verstehen und damit dasjenige, was wir bereitstellen wollen, wenn wir das intentionale Handeln des Lebewesens aus Gründen sprachlich zu erklären beanspruchen. Psychisches, Psychologisches und Mentales sind damit die Hauptanwendungsfälle von Geistigem und offenbar hat Geistiges die wesentliche Eigenschaft, nicht an raumzeitlichen Koordinaten lokalisiert und in diesem Sinne abstrakt zu sein. Die These, die wir hier widerlegen wollen, lautet, daß

(T) der Bestand oder die Abfolge oder die Änderung einiger geistigen Zustände eine evolutionäre Erklärung hat.

Solche Widerlegungen sind auf verschiedenen Wegen möglich. Der hier beschrittene Weg will zum einen das Ergebnis liefern, daß eine Übertragung der oben gefundenen Bedingungen (A1)-(A9) und (G1)-(G3) Unsinn liefert und zum anderen, daß die ganze Idee evolutionärer Erklärungen des Geistigen auf einen irreführenden Bild von Evolution beruht und letztlich einfach schlechte Wissenschaft ist. Letzteres wird uns zugleich ein Beispiel für die in der Literatur [z.B. Philosophical Foundations of Neuroscience von James R. Davis, Max R. Bennett und P. M. S. Hacker, 2003] im wesentlichen akzeptierte These an die Hand geben, daß die Schnittstelle zwischen Gehirn und Geist uns im Moment noch massive Rätsel aufgibt.

Wie kann man die  These (T) widerlegen?

Was kann bei der Übertragung des Konzeptes der Evolution von Biologischem auf Geistiges passieren? Da Geistiges verschiedener Spezies mangels raumzeitlicher Lokalisierung nicht direkt in einer Konkurrenz um überlebenswichtige Resourcen stehen kann, kann man nur die Körper der den Geist erzeugen Gehirne dafür heranziehen und wer immer eine Variante von evolutionärer Psychologie oder Soziobiologie – oder wie immer solche Richtungen heißen mögen – vertritt, muß daher angeben, wie Geistiges von Physischem abhängt. Meistens wird ein modulares Modell des Geistes vertreten [1], nach dem die  mentalen Fähigkeit sich auffassen lassen als eine Menge evolutionär entwickelter und interagierender Informationsverarbeitungssubsysteme, die Lösungen von historisch eingebetteten Optimierungsaufgaben beim Überleben in Konkurrenz zu anderen Spezies repräsentieren.

a). Ein möglicher Weg jeder Art EE von Geistigem das Wasser abzugraben, besteht darin, zu zeigen, daß selbst dann, wenn der Zusammenhang zwischen Physischem und Geistigen so schwach und lose wie möglich in der Theorie ausgelegt wird, er immer noch zu straff ist mit der Folge, daß sich Widersprüche innerhalb der Theorie konstruieren lassen. Hier ist das ausgeführt worden und obwohl meine Argumentation dort zweifellos verbesserungsbedürftig ist, halte ich die grundsätzliche Strategie nach wie vor für richtig.

b) Eine anderer Weg besteht darin, zu zeigen, daß evolutionäre Erklärungen von Geistigem es nicht vermeiden können, gegen (A9) zu verstoßen, weil die Kenntnis von Geistigem sich nicht auf die Kenntnis von zerebralen Zuständen reduzieren läßt. Diesen Weg habe ich ebenfalls hier beschritten und mir scheint diese Idee auch weiterhin einleuchtend zu sein.

c). Ein weiterer Weg, den wir in diesem post benutzen wollen, liegt in dem Nachweis, daß in evolutionionären Erklärungen von Geistigem (EEG) das in  (A1)-(A9) und (G1)-(G3) skizzierte Verständnis gar nicht benutzt wird. Wenn also in EEG ein Begriff der Evolution vorkommt, dann ist er sui generis und ich werde die These stark zu machen versuchen, daß dieses neue Evolutionskonzept höchstens jämmerlich zusammengeklempnert und letztlich unbrauchbar ist. Wenn das nachgewiesen werden kann, dann sind EEG ganz einfach ein Fall schlechter Wissenschaft, weil die Apologeten von EEG einfach das Konzept von Evolution nicht verstehen.

Probleme mit Repräsentationen

Um die letzte Strategie zu verfolgen, betrachten wir:

(P1) Wir können uns zum einen historische Umstände G ausmalen und aus ihnen künftige psychische Zustände M voraussagen.

(P2) Wir können uns interessierende psychischen Zustände auswählen und fragen, ob sie evolutionäre Quellen haben.

Die These (P1) leidet daran, schon seit längerem empirisch widerlegt zu sein: Ein Trend in den Neurowissenschaften geht dahin, bestimmten mentalen Fähigkeiten lokale Gebiete im Gehirn zuzuweisen. Wenn man nun z.B mittels PET die Gehirne von Personen beobachtet, die alle dieselben Aufgaben lösen, dann sieht man zwar, daß in lokal nahe beieinander liegenden Arealen ähnliche Aktivitätsmuster vorhanden sind, aber es sind nicht dieselben Muster an denselben Stellen. Zweitens ist bekannt, daß aufgrund der Plastizität des Gehirns nach Hirnläsionen andere Areale dieselben mentalen Fähigkeiten nach einer gewissen Zeit des Lernens übernehmen können. Auf der Mikroebene ist die Entkopplung mentaler von zerabralen Gehirnzuständen sogar essentiell, weil täglich Neuronen zugrunde gehen, ohne daß wir den Effekt auch täglich bemerken würden, weil andere Neuronengruppen die Aufgabe der ausgefallenen Neuronen übernehmen. Soziobiologen können der Beweiskraft dieser Befunde nur ausweichen, indem sie behaupten, nicht die physiologische Gehirnarchitektur, sondern die Funktionen dieser Architektur seien vererbt. Damit verabschieden sie sich aber von explizit von (A1), (A2), (A6), (A9), (G1), (G2), (G3) und lassen offen, wie sie (A3), (A4) und (A5) erfüllen wollen. Die Strategie aus (P1) dennoch zu verfolgen, bedeutet daher implizit den Begriff der Evolution zu redefinieren, ohne daß der Sinn und Nutzen der neuen Definition transparent diskutiert werden würde. Außerdem gehört zu diesen Funktionen auch die Abfolge mentaler Zustände und es ist einfach falsch, daß für alle eineiigen Zwillinge gilt, daß sie unter denselben Bedingungen immer dieselben Meinungen haben, daß sie von einer Stimmung S1 immer in S2 übergehen und aus denselben Überzeugungen auch dieselben Folgerungen ziehen – das alles stimmt einfach nicht: die Psychen von genetisch identischen Personen sind variabel und nicht Kopien voneinander.

Da Tote zweifellos keine mentalen Zustände mehr haben können, scheint die Behauptung von (P2), daß mentale Zustände auf zerebrale Zustände irgendwie zurückgeführt werden können, prima facie vernünftig zu sein. Man kann nun, wie hier geschehen, darüber nachdenken, ob sich mentale Zustände auch wirklich auf zerebrale reduzieren lassen. In diesem post werden wir uns dagegen fragen, ob man von einem mentalen Zustand wissen kann, daß er auf einen zerebralen reduziert werden kann. Denn das Vorgehen in (P2) verlangt klarerweise, daß, wenn wir uns in einem mentalen Zustand M befinden, wir auf eine nicht näher angegebene Weise mit Hilfe des nicht notwendigerweise sprachlich ausdrückbaren, aber M identifizierenden Inhalts p wissen, daß wir uns in einem zerebralen Zustand Z befinden, von dem wir hier einmal annehmen wollen, daß seine evolutionäre Entstehung in geeigneter Weise nachgewiesen wurde.Um den Zusammenhang von M und Z zu untersuchen, wollen wir nun folgendes definieren:

(D) Wir sagen, daß ein mentaler Zustand M irgendein x repräsentiert genau dann, wenn es entweder die Funktion von M ist, normalerweise Informationen von x zu übertragen bzw. von x verursacht zu werden, oder wenn M die Funktion hat, Informationen von x zu tragen, indem M von y verursacht wird. y ist dabei selbst kein mentaler Zustand.

(D) ist ein knifflige Sache, die sich aber gut an einem technischen Beispiel illustrieren läßt:

So wie der Zeigerstand eines Thermometers K die Außentemperatur T i.S.v. (D) repräsentiert, repräsentiert der vom Gehirn erzeugte mentale Zustand M den zerebralen Zustand Z. Daher entspricht der Zeigerstand von K dem Inhalt p von M und T dem Zustand Z.

Bei Thermometern leuchtet es uns unmittelbar sein, daß kein Zeigerstand von K den Repräsentationszustand R von K repräsentiert, nämlich z.B. die Tatsache, daß ein Zeigerstand von K eine Außentemperatur T repräsentiert. Denn nehmen wir einmal zusätzlich an, K sei mit einem Alarmsystem für niedrige Außentemperaturen gekoppelt. Dann ist klar, daß der Alarmzustand von K einen Inhalt über den Zustand von K, nichts aber über den Repräsentationszustand R von K beinhaltet, denn es wird mit dem Alarm ja nichts über T induziert: Das Thermometer könnte auch kaputt gewesen sein. Übertragen wir diese Struktur nun auf Personen und mentale Zustände, dann folgt: Eine Person kann wissen, daß sie sich in M befindet, ohne deshalb auch ihrem Repräsentationszustand R kennen zu müssen.

Gehen wir jetzt zurück zu K und nehmen wir an, das Thermometer hätte ein Bewußtsein, dann gilt weiter, daß K nicht selbst entscheiden kann, ob sein Zeigerstand auf eine äußere Ursache, z.B. Z zurückzuführen ist oder nicht. K kann die Wirklichkeitreue seines eigenen Zustandes nicht mit Hilfe seines eigenen Zeigerstandes allein verifizieren, denn K kann nicht ohne weitere äußere Anhaltspunkte entscheiden, ob es kaputt ist oder nicht. Daher  kann K so wenig die Wirklichkeitreue seines eigenen Zustandes überprüfen, wie eine Person die Wahrheit der Behauptungen einer Zeitung dadurch herausfinden kann, indem sie ihre Artikel zweimal ließt.

Übertragen wir diese Struktur von Repräsentation nun auf Personen und mentale Zustände, dann folgt insgesamt: In M zu sein, impliziert weder R zu kennen, noch erzählt R durch den Inhalt p von M, wie M via Z oder Z selbst zustandegekommen ist. Und daher kann (P2) niemals zu einer belastbaren evolutionären Erklärung führen. Selbst wenn wir demnach zugeben, daß es evolutionäre Einflüsse auf die Psyche des Menschen gibt – so unplausibel ist das ja gar nicht, wie Zwillingsstudien nahelegen – können wir nicht herausfinden, wo sie genau liegen: Die Intransparenz des Geistes für sich selbst als eine der tieferen Quellen für all die Schwierigkeiten an der Schnittstelle von Gehirn und Geist wird von Soziobiologen, evolutionären Psychologen und anderen einfach unterschätzt.

Natürlich können Soziobiologen diesem Argument ausweichen und behaupten, daß es die mentalen Zustände als Quellen unserer Handlungen seien, welche uns z.B. im Pleistozän das Überleben sicherten, und die daher als einzige einer impliziten Selektion unterlagen. Aber dann verabschiedet man sich erneut vom obigen Evolutionsbegriff, in dem man wieder (A1), (A2), (A6), (A9), (G1), (G2), (G3) fallen und offen läßt, wie (A3), (A4) und (A5) erfüllt werden sollen.

Fazit

Mein Fazit aus dieser Analyse lautet daher: Obwohl es vernünftige und sicher auch wahre evolutionäre Erklärungen z.B. für Anatomisches gibt, sind evolutionäre Erklärungen von Geistigem irreparabel unbrauchbar. Und wer dennoch ihre Richtigkeit beansprucht, demonstriert, daß er gar nicht merkt, von demjenigen dramatisch abzuweichen, was er vorgibt, angeblich so gut zu verstehen: der Evolutionstheorie.

[1] z.B. J. Barkow/ J.Tooby/ L. Cosmides: The Adapted Mind, Oxford 1992 ; J. Tooby / L. Cosmides: Evolutionary Psychology and the Generation of Culture, Part I, in: Ethology and Sociobiology, vol. 10, pp. 29-49 ; J. Tooby / L. Cosmides: Evolutionary Psychology and the Generation of Culture, Part II. Case Study: A Computational Theory of Social Exchange, in: Ethology and Sociobiology, vol. 10, pp. 51-97
 

Die Meinung des Gastautors muss nicht der Redaktionsmeinung entsprechen.

 

Weitere Arbeiten desselben Autors siehe hier.

 




Evolutionäre Erklärungen des Geistigen I

Gibt es eine evolutionär entstandene, psychische Natur der menschlichen Spezies? Ist es wahr, daß es Konsequenzen der evolutionären Entwicklung der Spezies Mensch gibt, die es nicht nur erlaubt, sondern vielleicht sogar von uns fordert, die semantischen Steinbrüche, aus denen sich diejenigen Konzeptualisierungen speisen, mit denen wir die sozialen Kooperationen unseres Lebens abstützen, mit bisher ungetesteten Spektralfarben auszuleuchten? Sind wir vielleicht sogar zu neuen normativen Standards für unsere Gesellschaft genötigt, die die evolutionäre Natur unserer Spezies respektiert und müssen wir daraus eventuell sogar politische Konsequenzen ziehen? Für die Human- und Sozialwissenschaften sind solche mit dem Aufschwung der Biowissenschaften in den letzten Jahrzehnten verbundenen Erklärungs- und Deutungsansprüche meist eine Bedrohung, vor der sie nicht selten hilflos zurückweichen. Ich werde in diesem post jedoch dafür argumentieren, daß alle o.g. Fragen endgültig verneint werden können.

                    
I. Gibt es gute evolutionäre Erklärungen?

Um zu verstehen, was evolutionäre Erklärungen akzeptabel macht, sehen wir uns am besten dafür ein Beispiel (E) an in einem Bereich, für den wir halbwegs zuverlässige Verfahren entwickelt haben, um gute von schlechten evolutionären Erklärungen zu unterscheiden: die Entwicklung eines biologischen Phänomens, des aufrechten Gangs beim Menschen. Was wir hier lernen können, werden wir dann auf den Fall der evolutionären Erklärung geistiger Phänomene zu übertragen versuchen.

Eine Beispiel für eine evolutionäre Erklärung

Nehmen wir nun einmal an, es wäre gesichert, daß unsere Vorfahren V in grauer Vorzeit einmal auf vier Beinen gelaufen sind. Dann können wir uns fragen, durch welche Umstände sich die – zweifellos genetisch determinierte – menschliche Anatonmie so veränderte, daß die Nachfolger N unserer Vorfahren zur Fortbewegung auf zwei Beinen übergingen und wir betrachten für die evolutionäre Entwicklung folgende Erklärung:

(E1) Nehmen wir dafür an, daß V zum Zeitpunkt t in einer Umgebung U lebt, für die seine genetische bedingten Merkmale Fähigkeiten und Eigenschaften bereitstellen derart, daß nur die Existenz seiner Freßfeinde für die Art von V einen ernstzunehmenden Überlebenskampf nach sich zieht und daß seine Reproduktionsrate die Ausfälle durch Unfälle, Krankheiten oder Freßfeinde etc. übersteigt.
                            
(E2) Nehmen wir weiter an, daß innerhalb der Art von V infolge der zufälligen Genomverklebung während der Meiose die Fähigkeit auf zwei Beinen zu gehen, zu einer Zeit vor t unterschiedlich stark ausgeprägt ist. Sie folgt in U vor t irgendeiner Verteilung, ohne daß die Fähigkeit, auf zwei Beinen gehen zu können, zu t evolutionär ins Gewicht fallen würde, da die Reproduktionsrate der Spezies von V die typischen Ausfälle ja bereits übersteigt.

(E3) Stellen wir uns nun vor, daß es fossile Funde darauf hindeuten, daß es durch Schwankungen der Sonnenaktivität in einem Zeitintervall um t herum zu einem Klimawechsel in U gekommen ist, dessen Geschwindigkeit groß, aber ansonsten unwichtig ist. Als Folge davon wird in U für V zu t die Nahrung knapp und alle V müssen immer weitere Strecken zurücklegen, um genug Nahrung für sich und ihren Nachwuchs zu finden, wenn alle überleben wollen. Weiter nehmen wir an, daß andere fossile Funde darauf hindeuten, daß alle V nach t auf zwei Beinen gelaufen sind.

(E4) Weiter können wir festhalten, daß es bis heute eine in Expermenten nachweisbare Tatsache ist, daß, auf zwei Beinen zu gehen, im Vergleich zum vierbeinigen Gang für Primaten enorm energiesparend ist.

(E5) Die Folge dieser Energiesparmöglichkeit ist, daß auf vier Beinen gehende V bei Wanderungen schneller erschöpft sind, täglich mehr Nahrung brauchen und nur kleinere Gebiete nach Nahrung absuchen können. Sie können daher weniger Nachkommen versorgen, die zudem kleiner und schwächer sind und daher eine leichtere Beute für ihre Freßfeinde werden.Die Konsequenz aus (E1)-(E5) ist:

(E6) Dauert die Klimaveränderung in U nur lang genug an und ist U groß genug, damit V dem Klimawandel in U nicht entfliehen kann, dann hat nach ausreichend vielen Generationen der Klimawandel die auf 4 Beinen laufenden V verschwinden lassen, da ihre Reproduktionsrate nicht mehr größer war, als der Verlust an Artgenossen durch Unfälle, Krankheit, Freßfeinde, Verbrechen, Altersschwäche etc…

Ich bin nicht sicher, ob diese Erklärung für die Spezies Mensch auf der Erde wirklich wahr ist, aber wir wollen  für diesen post einmal annehmen, daß es sich um eine gute und wahre Erklärung handekt. Wir fragen uns jetzt, warum diese Erklärung eine gute Erklärung ist. Zugleich erinnere ich daran, daß ich hier bereits darüber berichtet hatte, daß nach dem gegenwärtigen Stand der Wissenschaftstheorie eine allgemeine Theorie der Erklärung im Moment nicht zur Verfügung steht. Dennoch wird sich zeigen, daß man konkret begründen kann, was (E1)-(E6) zu einer guten und was sie zu einer adäquaten evolutionären Erklärung (kurz: EE) macht.

Adäquatheitsbedingungen für evolutionäre Erklärungen

Wie gewohnt muß man – um Zirkularität zu vermeiden – für Adäquatheitsbedingungen von (E) verschiedene Beispiele beibringen, die diese Bedingungen motivieren, erläutern und deren Nützlichkeit demonstrieren. Ferner sollte (E) alle diese Bedingungen erfüllen bzw. nicht gegen sie verstoßen.

(A1) Offenbar sollte keine evolutionäre Erklärung in dem Sinne ex post ablaufen, daß sie eine Geschichte erzählt, nach der die Lebewesen, auf eine Änderung ihrer Lebensumstände explizit reagieren. Denn natürlich stellt keine Spezies generationenübergreifende Überlegungen und Untersuchungen an, um eine quantitative Abschätzung ihrer Überlebenschance zu entwickeln mit dem Ziel, den eigenen Gendatensatz willentlich so zu verändern, daß die dadurch neu erworbenen Fähigkeiten ein Optimalsteuerungsproblem für eine Gruppe von Lebenwesen unter Sterberisiken verschiedener Provenienz für eine Folge künftiger Lebensumstände verbessern. Das ist schlicht unmöglich.In (E) ist die Erklärung richtigerweise aus der ex ante Perspektive vorgenommen worden.

Wenn man (A1) falsch macht, dann kann man z.B. die Geschichte erzählen, daß Menschen ihre Körperbehaarung verloren haben, weil sie in der heißen Savanne laufend sich schwitzend kühlen zu können und auf diese Weise leistungsfähiger wurden. Das ist jedoch insofern ein schlechte evolutionäre Erklärung, als dies zwar ex post einen Vorteil im Überlebenskampf darstellt mag, aber jeder Hinweis auf den zeitlichen und damit den kausalen Zusammenhang mit dem Schwitzens fehlt: Es gibt eben keinen Nachweis darüber, daß V deshalb seine Körperhaare verlor, gerade weil er in der Savanne lief. Denn andere Tiere tun das auch und haben dennoch ein Fell, so daß dem Umstand, in der heißen Savanne zu laufen, nicht das kausale Potential zugesprochen werden kann, zu Haarverlust zu führen. Eine ex ante erfolgende evolutionäre Erlärkung würde aber die kausalen Zusammenhänge und ihre Rolle innerhalb der zeitlichen Entwicklung der Evolution nachzeichnen. Daraus folgt direkt:

(A2) Nicht alles, was ex post einen Vorteil für V darstellt, ist auch das Produkt einer evolutionären Entwicklung zu t in U und damit evolutionär relevant, allein weil es ex post einen Vorteil für V darstellt. Das reicht einfach nicht aus.In (E) ist das beachtet worden.

(A2) ist gerade zu trivial: Es wäre ein Vorteil für den Menschen, wenn er z.B: am Hinterkopf Augen hätte. Aber offenbar reicht das für eine anatomische Anpassung nicht aus, denn wir würden Augen am Hinterkopf als Mißbildung betrachten.

(A3) Nicht alle mit einer Spezies zusammenhängenden Phänomene dürfen offenbar durch eine evolutionäre Erklärung erklärt werden: Blaue Augen z.B. – die ja auch einen erblichen Gendefekt zurückzuführen sind – haben sich gerade deshalb verbreitet, weil es sich um einen Freiheitsgrad innerhalb der Evolution handelt, dessen Ausprägung nichts mit irgendeinem Vor- oder Nachteil beim Überleben von V oder N zu tun hat. Die Augenfarbe hat keine kausalen Wechselwirkungen mit den physiologischen Fähigkeiten, zu überleben: Sehen kann man mit Augen jeder Pigmentierung gleich gut. In (E) gibt es hierfür den Punkt (E5).

Das führt uns direkt zu:

(A4) Nicht jedes biologische Phänomen wurzelt auch in einer biologischen Funktion, was bedeutet, daß nicht jedes biologische Phänomen zulässig ist für eine evolutionäre Erklärung. In (E) schützt uns davor (E6).        

Und das Beispiel der blauen Augen demonstriert noch eine weitere Adäquatheitsbedingung für evolutionäre Erklärungen: Die Augenfarbe ist kein erbliches Merkmal, denn die Augenfarbe der Kinder und Enkel hängt von den jeweiligen Partnern ab und ist selbst dann nicht sicher vorhersagbar, wenn die Augenfarbe der Partner der Kinder und Enkel bekannt ist. Daher gibt es viele Merkmale, wie z.B. nicht Einparken zu können oder sexuell untreu zu sein, die grundsätzlich keiner evolutionären Erklärung zugänglich sind. Wir fassen dies zusammen in

(A5) Was in der Geschichte einer Spezies über Generationen präsent ist, muß nicht das Ergebnis einer Anpassung sein, sondern kann auch das Ergebnis evolutionärer Irrelevanz sein unabhängig davon, ob das biologische Phänomen erblich ist oder nicht. In (E) wird die Anpassung mit dem zeitlichen Zusammenfallen von Klimawechsel und Umstelllung auf den aufrechten Gang begründet.

Obwohl damit genetische Einflüsse alles andere als offensichtlich und damit auch im mentalen Bereich nicht auf der Hand liegen müssen wie man am Beispiel der  Intersexualität sieht, kann man das beobachtete und zu erklärende Phänomen anthropozentristisch auswählen. Ein Beispiel dafür wäre Promiskuität beim Menschen:

Gelegentlich wird in der Popkultur behauptet, daß Promiskuität seine Quelle in dem unbewußten Wunsch habe, die eigenen Gene zu verbreiten. Denn genau das geschehe ja mit einer gewissen Wahrscheinlichkeit schließlich dabei und deshalb sei es evolutionär relevant. Tatsächlich prägen aber über einhundert vom Menschen verschiedene Spezies Homosexualität aus. Das zeigt nicht nur, daß die Verachtung von Homosexualität unnatürlich ist, sondern auch daß sie evolutionär offenbar nicht wirklich ins Gewicht fällt: Denn wenn die Nichtverbreitung der eigenen Genen durch Zeugung von Nachwuchs nicht evolutionär relevant ist, dann ist es die Verbreitung der eigenen Gene auch nicht – vom sog. Gründereffekt einmal abgesehen. Zusammen mit (A5) kann man das zuspitzen zu

(A6) Wenn es biologische Phänomene gibt, die evolutionär irrelevant sind, dann kann man dessen evolutionäre Funktion nicht an seiner biologischen Funktion ablesen – wenn wir denn einmal annehmen wollen, daß es eine solche gibt. Also ist nicht jedes biologische Phänomen, daß eine biologische Funktion ausübt, auch evolutionär relevant und damit zulässig für eine evolutionäre Erklärung. In (E) wird die evolutionäre Relevanz des aufrechten Ganges explizit in (E4) dargelegt.

Was hingegen im letzten Beispiel der Popkultur evolutionär relevant ist, ist die Zeugung von Nachkommen. Daß es hingegen auch die eigenen Nachkommen sind, ist offenbar evolutionär irrelevant. Diese Tatsache exemplifiziert die Adäquatheitsbedingung

(A7) Höchstens biologische Massenphänemene sind evolutionär erklärbar.

Zwar kann man nicht abstreiten, daß uns z.B. die Epigenetik Gründe an die Hand gibt, zu glauben, daß auch einzelne Gene evolutionären Prozessen unterworfen sind. Aber ich persönlich kenne keine populationsgenetischen Rechnungen, die zeigen, ob und wie sich das auf eine ganze Spezies auswirkt. Bleiben wir also vorerst bei (A7).

Die Tatsache, daß einige Gene z.B. meine Gene sind, ist trivialerweise kein Massenphänomen. Aber in (E) geht es gerade um ein Massenphänomen. Im übrigen weiß jeder Mensch sehr gut, daß er es auch dann tun will, wenn er genau weiß, daß er sich dabei nicht vermehren kann: Es gibt folglich eben nur einen für den Fortbestand der Spezies völlig ausreichenden Geschlechtstrieb, einen Vermehrungstrieb gibt es hingegen nicht: Begeisterte Samenspender, die offen für ihr Hobby Werbung machen, sind schlicht die Ausnahme. Mit anderen Worten:

(A8) Nicht immer ist es das erfolgreiche Resultat eines Verhaltens, das das Resultat einer evolutionären Entwicklung ist.

Betrachten wir jetzt die letzte, ebenfalls auf der Hand liegende Adäquatheitsbedingung:

(A9) Adäquate evolutionäre Erklärungen betreffen nur die Wechselwirkungen natürlicher Abläufe mit den erblichen Merkmalen jedes Lebewesens einzeln in einer lokalen Umgebung U in gleicher Weise und sie sind unabhängig davon, daß für das Erbringen der Erklärungsleistung von einen Kollektiv intentional erbrachte Kulturleistungen derselben oder anderer Spezies in der evolutionären Erklärung erwähnt werden. In (E) wird das klarerweise eingehalten.

Diese Bedingung schränkt die Menge der erklärbaren Phänomene auf andere Art und Weise ein, als (A2) das tut.Macht man sie falsch, dann kann man das z.B. dadurch machen, daß man den Begriff der Evolution von der Intuition einer Sterbewahrscheinlichkeit entkoppelt, deren Quelle das die eigenen erblichen Fähigkeiten und das Verhalten anderer Arten in einer gemeinsam geteilten Umgebung U sind und betrachtet statt der o.g. bedingten die nicht auf diese Weise bedingte Sterbewahrscheinlichkeit, indem man lebensverlängernde Maßnahmen wie z.B. die Gesundheitsvorsorge oder moralische Einstellungen wie z.B. möglichst viele Nachkommen zu zeugen, einer Spezies auf die nicht-bedingte Sterbewahrscheinlichkeit derselben Spezies anrechnet. Ein Beispiel, wo das systematisch falsch gemacht wird, ist der SciLogs-blog Natur des Glaubens von Michael Blume.

Qualitätskriterien für evolutionäre Erklärungen

Neben solchen Adäquatheitsbedingungen können wir noch Qualitätskriterien für EE aufschreiben:

EE sind die ultima ratio bei der Erklärung biologischer Phänomene: Der Gund dafür ist der, daß EE in mindestens einem Punkt immer spektulativ bleiben. Machen wir uns das an (E) klar: Selbst wenn wir wissen, daß Klimawandel und Entwicklung des aufrechten Ganges zeitlich zusammenfallen, so können wir doch nicht sicher sein, daß es keinen weiteren, bisher unbekannten Grund x für die Umstellung der Fortbewegungsart von V gab, der einen alternativen Kausalverlauf zum betrachteten oder einem späteren Zeitpunkt initiierte. Gäbe es diesen tatsächlich dominanten alternativen Kausalverlauf und wüßten wir von ihm, dann würden wir sagen: “Auch der simultane Klimawandel zu t in U hätte den aufrechten Gang sich in der Evolution durchsetzen lassen. Tatsächlich aber war es x.”. Hypothetisch, weil in der Vergangenheit liegend, wird in EE immer die Aussage sein, daß es kein solches x gab. Wir formulieren also als Bedingung einer guten EE:

(G1) Eine EE ist gut höchstens dann, wenn jede alternative Erklärung des biologischen Phänomens unabhängig von EE einen Mangel hat, der sie inakzeptabel macht und EE keine dieser Mängel aufweist.

Diese Bedingung für die Güte einer EE ist natürlich denkbar schwach. Ob sie (E) erfüllt, kann ich leider nicht angeben, da ich die Menge aller konkurrierenden Erklärungen nicht kenne. Zum Glück finden wir noch stärkere, weil spezifischere Anforderungen:

Man kann nicht abstreiten, daß viele Merkmale z.B. der menschlichen Physiologie wie etwa Stoffwechselparameter oder Körperlänge einer Verteilung genügen. Andere, wie etwa die Anzahl der Finger, tun es nicht. Damit stellen sich klarerweise zwei Probleme: Wenn man evolutionäre Erklärungen für verteilte Merkmale in Anschlag bringt, muß die (Nicht-) Existenz der Verteilung selbst Gegenstand der Erklärung sind. Und deterministische wie Zufallsphänomene als Produkt derselben Evolution auszuweisen, ist natürlich schon nicht so leicht. Zugleich muß bei verteilten Phänomenen ein Unterschied gemacht werden können zwischen einer falschen und einer richtigen EE. Mit anderen Worten:

(G2) Wenn eine EE eine gute EE eines biologischen Phänomens mit biologischer Funktion sein will, dann muß die Variation selbst Teil der biologischen Funktion sein, deren Entstehung durch einen evolutionären Prozeß behauptet wird. Zweitens muß wegen (A5) die Art der Abweichung in der biologischen Funktion unterschieden werden können von der Falschheit der Erklärung selbst in einem der Ausprägungsfälle des biologischen Phänomens. (E) erfüllt dies dadurch, daß der aufrechte Gang in so gut wie jeder Variation dem Gang auf 4 Beinen in Punkto Enegiesparen wenigstens ein wenig überlegen ist.

Evolution stellen wir uns manchmal so vor, als würde ein in einer black box verborgener Prozeß an einem Lebewesen über längere Zeiträume hinweg ein Merkmal hervorbringen. Abgesehen davon, daß die Epigenetik massive Zweifel an der Langfristigkeit dieses Bildes erzeugt, ist es grundfalsch: Richtig ist allein, daß der Einfluß der Kombination aller Merkmale auf das Verhältnis von Aussterbewahrscheinlichkeit zu Geburtenrate relevant ist und selbst das reicht nicht aus: So kann ein Lebewesen, daß in seinem biologischen Eigenschaften z.B. seinen Nahrungskonkurrenten im Pleistozän in so gut wie jeder Hinsicht unterlegen ist, doch seine biologischen Merkmale konservieren, wenn ein Merkmal z.B. die Intelligenz, die Nachteile der anderen Merkmale im Vergleich zu den Eigenschaften der konkurrierenden Spezies kompensiert: Evolutionäre Rechtfertigungen von Merkmalen gibt es im Grunde nicht, da ihre Konsequenzen auf das Verhältnis von Aussterbewahrscheinlichkeit zu Geburtenrate immer von den Eigenschaften der konkurrierenden Lebewesen abhängt.Daher kann man auch niemals davon reden, daß durch Evolution so etwas wie Konvergenz einer Spezies in Bezug auf eines ihrer Merkmale auf ein Optimum hin stattfindet: Evolution verbessert nichts auf lange Sicht, sie gleicht höchstens aus relativ zu einem zeitabhängigen setting. Und was zu t optimiert wurde kann zu T>t schon evlutionär irrelevant sein. Das kann man auch so formulieren:
    
(G3) Eine EE ist gut höchstens dann, wenn sie den resultierenden Einfluß einer Kombination erblicher Faktoren auf das Verhältnis von Aussterbewahrscheinlichkeit zu Geburtenrate in U zu t unter Einbeziehung des Einflußes der zu t konkurrierenden Spezies betrachtet. Diese Struktur bildet (E) offenbar isomorph nach. Auch (G3) wird im SciLogs-blog  Natur des Glaubens von Michael Blume in den meisten posts nicht erfüllt.

Evolutionäre Anpassung sind daher statistische, d.h. höchstens im Mittel dominante, relative, graduelle und immer kollektive Effekte und es ist ausgenommen schwer, ein einzelnes Merkmals als Produkt einer evolutionären Optimierung auszuweisen. Keinesfalls darf eine EE darauf bestehen, daß das evolutionäre Resultat die Verbesserung einer biologischen Eigenschaft einer Spezies ist.
                    
Zusammenfassung

Wenn wir die gefundenen Unterscheidungen einmal zusammenfassen wollen, dann erhalten wir die folgende Liste:

1. Evolutionäre Erklärungen biologischer Phänomene sind höchstens dann adäquat, wenn sie ex ante den historischen Vorgang der kausalen Selektion eines erblichen, biologischen Phänomens mit biologischer Funktion empirisch belegen, dessen Effekt für die Bilanz von Aussterbewahrscheinlichkeit und Geburtenrate in einer statistischen, zeit- und ortsabhängigen und kulturunabhängigen Erklärung belegen.

2. Evolutionäre Erklärungen biologischer Phänomene sind höchstens dann gut, wenn sie die Mängel konkurriereder Theorien vermeiden und nicht nur die evolutionäre Rolle der biologischen Funktion betrachteten biologischen Phänomens, sondern auch dessen Verteilung aus seiner biologischen Funktion erklären auf eine Weise, daß das Auftreten der Verteilung die ganze Erklärung nicht trivialerweise wahr macht. Zusätzlich sollte sie die zeitabhängigen Wechselwirkungen der Merkmalskombination der betrachteten Spezies mit der Umgebung und dem historischen Verhalten konkurrierender Spezies betrachten und benutzen, um das Resultat der genetischen Veränderung der Spezies verständlich zu machen.

Wir wollen all diese Resultate für evolutionäre Erklärungen biologischer Phänomene im Kopf behalten, wenn wir uns nun überlegen, ob es evolutionäre Erklärungen geistiger Phänomene geben kann. Denn (A1)-(A9) und (G1)-(G3) liefern natürlich die Skizze eines bewährten Verständnisses des Begriffs der Evolution, dessen Übertragbarkeit auf geistige Phänomene hier gerade geprüft werden soll.

 

Informationen zum Autor finden sich hier. Der zweite Teil “Bad Science” folgt demnächst.

 

Die Meinung des Gastautors muss nicht der Redaktionsmeinung entsprechen.

 

Weitere Arbeiten desselben Autors siehe hier.

 




Grundzüge einer naturalistischen Philosophie und Ethik

Die Natur ist auf der fundamentalen ontologischen Ebene aus den Elementen Teilchen, Feldern und Raumzeit aufgebaut, wobei alle strukturell verflochten sind. Des Weiteren besitzt die Natur eine im Prinzip erforschbare Gesetzes- und Kausalstruktur, wobei die Kausalität deterministischer oder statistischer Art sein kann (Bsp.e: Himmelsmechanik, radioaktiver Zerfall). Die Materieelemente (Teilchen bzw. Felder) können beliebig komplexe Strukturen tragen. Elementargebilde können Hierarchien von strukturaler und funktionaler Komplexität aufbauen. Ontologischer Monismus ist also durchaus mit strukturalem Pluralismus vereinbar, unser Universum ist kein homogener statischer Block, sondern eine heterogene, dynamische Struktur. Die Vielfalt der Welt hat sich im Laufe der kosmischen Evolution gebildet, sie ist eine Leistung der Selbstorganisation der Materie.

Schwacher und starker Naturalismus

Die These, dass das materielle Substrat aus seiner eigenen Gesetzlichkeit heraus letztendlich alle Gebilde hervorbringt, hat man mit dem Namen „schwacher Naturalismus" (David Armstrong 1983) belegt. Dieser innerweltliche Naturalismus behauptet die keineswegs besonders gewagte Aussage, dass das Universum in seinem empirisch, aber auch theoretisch fassbaren Bereich ohne Rekurs auf autonome spirituelle Entitäten, besondere Lebenskraft oder teleologische und transzendente Wirk-Faktoren erkannt werden kann. Der schwache Naturalismus schließt einen transzendenten Seinsbereich nicht aus, sondern behauptet nur, dass für das Verständnis des Kosmos auch in den höheren Entwicklungsstufen (Leben, Bewusstsein, Erkennen) supernaturale Faktoren nicht gebraucht werden (ontologische Sparsamkeit). D. Armstrong hat darüber hinaus auch einen „starken Naturalismus" verteidigt, wonach ein Transzendenzbereich ausgeschlossen wird und somit das Universum, so wie es heute von der Wissenschaft erforscht wird, alles ist, was es gibt. Er benützt dabei das Argument der Begründungslast: Derjenige, der für die Existenz eines Seins-Bereiches plädiert, trägt die argumentative Stützungslast.

Der Transzendenz-Skeptiker nimmt dabei eine abwartende Haltung ein: er wartet, bis der Verteidiger einer außerweltlichen Ontologie seine guten Gründe vorbringt. Der Skeptiker ist dabei nicht gezwungen, Gründe für die Nichtexistenz der in Frage stehenden Seinsbereiche zu bringen. Solange es dem Verteidiger einer supernaturalen Einbettung des Kosmos nicht gelingt, einsichtige Gründe für diese ontologische Erweiterung zu bringen, wird sich der Skeptiker nicht überzeugen lassen. Dies ist wichtig für die immer wieder beschworene Situation eines Argumentations-Patts: Derjenige, der behauptet, dass auf Neutronen-Sternen kleine grüne Männchen wohnen, muss dies zeigen. Nicht der Skeptiker muss beweisen, dass auf Neutronensternen kleine grüne Männchen unmöglich sind. Man kann den „schwachen Naturalismus" auch als Geschlossenheitsthese formulieren. Die Prozesse der Welt sind kausal geschlossen, sie hängen stark vernetzt voneinander ab, aber es gibt keine transmundanen Einflüsse, die das Ursachen-Netz durchbrechen. Die Kenntnis der notwendigen und hinreichenden Bedingungen innerhalb des Universums reicht hin, um Aufbau und Funktion lebendiger Systeme zu verstehen. Die kausale Geschlossenheit manifestiert sich u. a. in den Erhaltungssätzen, die überdies über tiefliegende Theoreme der Gruppentheorie mit der Struktur der Raumzeit verknüpft sind (E. Noether).

Jeder externe Eingriff in das Universum bedeutet eine Durchbrechung mindestens eines Erhaltungssatzes. Auch in der Mikrowelt gelten die klassischen Erhaltungssätze. Deshalb ist es sinnvoll, die Welt auch als epistemisch geschlossen zu betrachten. Im Sinne des stratonischen Immanenz-Prinzips wird die Welt aus sich heraus erklärt. Alle sinnvollen Probleme werden mit immanenten Mitteln gelöst. Der Naturalismus besagt auch, dass die innerweltlichen Entitäten nicht von beliebiger Sorte sein können. Abstrakte, spirituelle, platonische Agenzien wie Ideen, Gedanken, Einfälle sind danach durchaus reale Strukturen, die in der Welt wirken, aber sie bleiben immer Muster einer neuronalen Aktivität in dem Gehirn eines lebendigen Organismus. Wird eine Idee nicht von einem Gehirn gedacht, existiert sie nicht. Ontologisch abkoppeln lassen sich Ideen nicht. Dies ist keineswegs ein extremer philosophischer Standpunkt: Aristoteles hat gegen Platon verteidigt, dass gedankliche Strukturen nur in den Dingen vorkommen. Auch in seiner Psychologie denkt Aristoteles durchaus in Einklang mit dem modernen Naturalismus. So heißt es in De anima II, 413 a: „… dass nun die Seele nicht abtrennbar ist vom Körper … das ist offensichtlich". Nach Aristoteles gibt die Seele als Struktur dem organischen Material temporär eine bestimmte Form, die mentalen Funktionen sind aber an die stabile Existenz des organischen Trägersubstrates gebunden.

Algorithmisierbarkeit des Seelischen

Moderne Psychologen haben in Einklang mit Aristoteles' naturalistischer Psychologie darauf hingewiesen, dass die Seele nur dann verstehbar, erforschbar ist, wenn sie gesetzesartigen Regularitäten sowie der Naturkausalität unterworfen ist. D. Dörner hat klar gezeigt, dass eine wissenschaftliche Psychologie voraussetzt, dass Seelisches algorithmisierbar sei. Ohne diese Annahme könnte man für psychologische Phänomene gar kein kausales Modell mit Erklärungsanspruch erstellen. Wenn Seelisches aus der Naturkausalität herausfiele – wie Kant noch annahm – würde sich das Wechselwirkungsproblem nicht verstehen lassen, jene Offensichtlichkeit, dass Vorstellungen und Phantasien körperliche Effekte hervorrufen können. Wenn Seelisches nicht eine Struktur organischer Materie wäre, ließe sich Bewusstsein auch niemals in einem anderen Träger-Medium realisieren. Die Idee einer künstlichen Intelligenz, wobei mentale Funktionen auf mechanischen, elektronischen oder anderen nicht-organischen Trägerbasen aktiviert werden, wäre von vornherein ausgeschlossen. Es erscheint aber als eine arrogante Voreingenommenheit gegenüber allen informationsverarbeitenden Maschinen zu behaupten, dass eine solche Rekonstruktion unmöglich sei. Deshalb wäre es voreilig, die algorithmische Kompressibilität (Naturgesetzlichkeit) des Mentalen a priori auszugrenzen. Methodisch gesehen ist es immer sinnvoller, die Erkennbarkeit eines Bereiches anzunehmen als dessen Analyse-Resistenz dogmatisch zu behaupten. Weiterführend ist es hingegen zu versuchen, ob man zentrale Züge des menschlichen Seelenvermögens – wie die Autonomie – auf Maschinen eines bestimmten Komplexitätsniveaus rekonstruieren kann. D. Dörner hat dies vor kurzem in eindrucksvoller Weise durchgeführt, indem er die Seele als ein Steuerungssystem rekonstruiert hat, das ein organisches System zur Selbstbestimmung befähigt. Autonomie tritt danach als stammesgeschichtliche Errungenschaft auf, weil es den Individuen bestimmte Überlebensvorteile verschafft.

Zuweilen wird der Naturalismus als pragmatische Vorgabe gesehen, die es erlaubt, ungestört Wissenschaft zu betreiben. Ich plädiere dafür, den Naturalismus als philosophische Hypothese über die Welt anzusehen: Sie ist nicht direkt falsifizierbar, ist aber indirekt fallibel, weil kritisierbar. Nach Popper reicht die Kritisierbarkeit aus, um eine Hypothese als wissenschaftlich zu qualifizieren. Popper anders als Wittgenstein hielt an der Existenz genuiner philosophischer Probleme und Hypothesen über die Welt fest. Eine Widerlegung des Naturalismus erfolgt damit nicht durch Beobachtung oder Experimente, sondern durch Bezug auf die heute bewährten Theorien der Wissenschaft.

Naturalismus vs. Theismus

Der schwache Naturalismus ist nichts anderes als die sparsamste philosophische Hypothese über die Beschaffenheit der Welt. Auch der starke Naturalismus ist natürlich kritisierbar. Vor allem im Bereich der Kosmologie: Der Theologe W. L. Craig hat vor kurzem versucht zu zeigen, dass das Standard-Urknall-Modell der Kosmologie nicht ohne Rekurs auf einen transzendenten Schöpfungsvorgang verstanden werden kann. Adolf Grünbaum hat diesen Argumentationsgang heftig kritisiert und auch Quentin Smith hat die theistische Deutung der Anfangssingularität als non sequitur erkannt. Jedenfalls wird um den Naturalismus auf hohem intellektuellen Niveau in der analytischen Philosophie eine intensive Diskussion geführt.

Die Wechselwirkung spiritueller Entitäten mit materiellen (chemischen, biologischen, neuronalen) Systemen ist völlig ungeklärt: Was passiert im Detail, wenn zeitlose, unräumliche, masselose Entitäten mit materiellen Systemen in der Raumzeit wechselwirken. Kausalität wird durchweg reziprok begriffen (3. Newtonsches Gesetz). Was soll man sich aber bei der drastischen kategorialen ontologischen Differenz unter Reziprozität vorstellen? Es ist ungenügend, die kausale Interaktion nur zu behaupten, man muss sie – so wie im materialen Bereich – spezifizieren. Ein Austausch von Objekten, die Träger von Energie, Impuls oder Drehimpuls sind, lässt sich nicht auf eine psycho-physische Wechselwirkung übertragen, wenn die psychologische Seite keinen materiellen Träger besitzt.

Wie ist nun aber die Situation zu beurteilen, wenn keine Wechselwirkung zwischen außerweltlichem und innerweltlichem Bereich stattfindet? Dieser Fall liegt ja gerade bei schwachem Naturalismus vor. Methodisch gesehen, also von der Verfahrensseite her, ist dann alles noch viel seltsamer. Eine transzendente spirituelle Entität, die nicht die geringsten Spuren in einem völlig ontologisch und nomologisch autonomen Universum hinterlässt, ist de facto funktionslos. Es ist nicht logisch widersprüchlich anzunehmen, dass die naturale Welt eine übernatürliche Einbettung besitzt. Wenn von dort her keine Spuren in der Welt hinterlassen werden, bleibt es bei der logischen Möglichkeit der Existenz des einbettenden Bereiches, aber es fehlen jegliche gute Gründe, dass diese Einbettung tatsächlich existiert. Kognitiv zumindest ist eine solche Annahme ad hoc; vielleicht kann man ihr eine emotive Funktion zuordnen, eine palliative Rolle, um die Härte des Naturalismus abzumildern, aber systematisch gesehen ist eine derartige Hypothese willkürlich.

Auch der schwache Naturalismus ist mit dem traditionellen Theismus unvereinbar. Allenfalls könnte man den Pantheismus, wie ihn etwa Spinoza vertreten hat, einen naturalisierten Theismus nennen. Die Identifizierung der Natur mit einem göttlichen Wesen kann als Spiritualisierung der Natur oder als Materialisierung der Transzendenz gedeutet werden. Eine Reihe von Naturwissenschaftlern standen dem Pantheismus nahe, unter ihnen auch Einstein. Seine Bewunderung für den hohen Ordnungsgrad der Natur hat ihn immer wieder zu emphatischen Äußerungen verleitet. Vermutlich haben solche Bekenntnisse eine ästhetische Wurzel, der „gestirnte Himmel" erzeugte eben nicht nur bei Kant, sondern auch bei modernen Wissenschaftlern erhabene kosmische Gefühle. Systematisch ist aber vermutlich der Analyse Schopenhauers nichts hinzuzufügen: „Gegen den Pantheismus habe ich hauptsächlich nur Dieses, dass er nichts besagt. Die Welt Gott nennen, heißt sie nicht erklären, sondern nur die Sprache mit einem überflüssigen Synonym des Wortes Welt bereichern".

Finale oder kausale Deutung der Evolution

Ähnlich steht es auch mit der Teleologie: Zwecke, Ziele, globale Intentionen in die Natur hineinzutragen, wird heute in der Naturwissenschaft als eine Überschreitung der kausal-mechanistischen Erklärungsstrategie gesehen. Innerhalb des heutigen evolutionären Naturalismus wird die scheinbare Zweckmäßigkeit der Lebewesen als Anpassung erklärt und somit kausal gedeutet. Der evolutionäre Naturalismus ist deshalb antiteleologisch und kausalistisch, was aber das Moment des Zufalls einschließt. Wenn man durchgehend mit

kausalen Prozessen in der Naturerklärung auskommt, wird man nicht ohne Not teleologische Mechanismen einbauen. Sparsamkeit in Bezug auf Entitäten, Kräfte und Mechanismen heißt Naturerkenntnis mit Minimalontologie zu betreiben. So wenig Erklärungselemente wie möglich, aber so viel wie notwendig. Der methodische Grund dieser Beschränkung liegt darin, dass die einfachere von zwei Hypothesen, die also weniger Entitäten enthält, leichter prüfbar ist. Eine Hypothese mit mehr Größen, mehr Kombinationsmöglichkeiten kann weniger leicht an der Erfahrung scheitern. Mit ausreichend vielen Konstruktionselementen kann ein Theoriengebäude fast unwiderlegbar gemacht werden, wie man an der Ptolemäischen Astronomie gesehen hat. Selbstredend ist der Naturalismus kompatibel mit der Entdeckung neuer materieller Systeme, in dem Sinne ist er klarerweise ontologisch offen. Auf der anderen Seite muss der Naturalismus kategoriale Abgrenzungen vornehmen, um überhaupt Aussagekraft zu besitzen.

Der Naturalismus hat heute evolutionären Charakter. Das evolutive Paradigma hat nach und nach alle Ebenen der Komplexität erfasst. Zuletzt sogar das Universum. Darwins Theorie war eigentlich nur der Wegbereiter für den Entwicklungsgedanken auf allen Schichten der Natur. Eine abstrakte Form davon mit verallgemeinerter Dynamik bildet die Idee der Selbstorganisation (SO).

SO ist die Anwendung des Entwicklungsgedankens auf beliebige Strukturen: So spricht man z. B. von der chemischen Evolution einer Galaxis, wenn sie selber ihren Anteil an Metallen erhöht. Die Idee der SO brachte Formen der Naturalisierung mit sich, die, als sie die höheren Leistungen des Menschen erreichte, Proteste und Abwehrreaktionen hervorrief. Sprache, Erkenntnis, Moral, ästhetisches Vermögen als neurobiologische Produkte, als spontane Organisationsleistungen des Hirns zu entschlüsseln, erschien vielen als eine Entwertung und Herabsetzung des spezifischen „Humanums". Max Scheler hat in seinem Buch: „Die Stellung des Menschen im Kosmos" dieser Abwehrhaltung Ausdruck gegeben. Er meinte noch, dass über allen neurobiologischen Funktionen der noàj als der genuine Exponent des Geistes walte. Heute wird in der Philosophie des Geistes nirgendwo mehr von einem noàj Gebrauch gemacht. Die Naturalisierung des Geistes wird bis heute von vielen als „Entzauberung" (Max Weber) empfunden, als etwas, das uns den letzten Rest von Mittelpunktsbestimmung im Universum nimmt. Bei Jean Paul war es noch ein Alptraum, bei Nietzsche eine bestürzende Erfahrung und bei Steven Weinberg eine trockene Konstatierung, dass der menschliche Geist keine Sinnkonstitution im Universum leisten kann. Auch Entrüstung hat somit eine Dämpfungskurve.

Eine wichtige Funktion bei der Naturalisierung des Geistes haben die jüngst etablierten Brückendisziplinen ausgeübt, die die Verankerung der mentalen Funktionen in der Physis verstärkten. Soziobiologie, Psychobiologie, Neurobiologie, Biolinguistik, haben den von Scheler so betonten Hiatus von Geist und Materie stark verringert. Auch Kognitionsforschung und Computer-Wissenschaft greifen in das früher rein von der Philosophie beherrschte Gebiet von Anthropologie, Epistemologie und Ethik ein. Jüngst wurde die Ästhetik von der Evolutionstheorie erfasst. Einer meiner Gießener Kollegen ist dabei, eine evolutionäre Ästhetik auszuarbeiten.

Naturalisierung der Philosophie

Der vorstehende Prozess lässt sich durchaus als Naturalisierung der Philosophie beschreiben. Diese Entwicklung ist kaum rückgängig zu machen. Eine glaubwürdige Philosophie muss sich heute im Verein mit den Einzelwissenschaften bemühen, den Menschen, die Welt und deren kognitive Wechselwirkung zu begreifen. Nicht nur die Philosophie, die Geisteswissenschaften schlechthin können sich ohne Substanzverlust nicht von den Neuro-, den Informations- und den Kognitionswissenschaften isolieren. Die Geisteswissenschaften sind nicht mehr allein die genuinen Verwalter von Vernunft, Subjektivität und Emotion. In den naturwissenschaftlich orientierten Spezialdisziplinen, wie z. B. Psychopharmakologie wird religiöses Bewusststein analysiert; Psycho-Robotik rekonstruiert die Autonomie des menschlichen Subjektes, Verhaltensgenetik die Koevolution von Natur und Kultur. Eine naturalistische Anthropologie ist dabei, Kernbegriffe der Hermeneutik und Geisteswissenschaften wie Person, Selbst, Subjekt in eine objektivierende wissenschaftliche Sprache zu übertragen. Dass dabei auch emotionales Pathos verloren geht, mag manchen stören, ist aber de facto kein kognitiver Verlust.

Es ist zu erwarten, dass bei einer objektiven Rekonstruktion des Bewusstseins manche Vorurteile der Folklore-Psychologie des Alltagsverstandes verloren gehen. Zum festen Bestand der Alltags-Psychologie gehört die Überzeugung, dass die Perspektive der ersten Person, in der wir über die eigenen psychischen Erlebnisse sprechen, von der objektiven neurophysiologischen Beschreibung nicht eingeholt werden kann, was Thomas Nagel in das berühmte Fledermaus-Gleichnis gekleidet hat. Das Argument hält jedoch nicht Stand, wie Paul Churchland gezeigt hat: Der privilegierte Zugang, den die Fledermaus und wir alle zu unseren inneren mentalen Zuständen besitzen, bedingt mitnichten, dass diese Zustände unphysikalisch sein müssen. Jeder Mensch hat auch einen privilegierten Zugang zu den Zuständen seiner Eingeweide, dennoch zweifelt er nicht, dass diese nach physiologischen Gesetzen funktionieren. Spezielle Informationskanäle zu bestimmten physiologischen Prozessen unseres Körpers bedingen keine immateriellen Zustände.

Die Freiheit des Willens

Eine ähnliche Rolle wie das Gefühl von der Besonderheit des Sprechens in der ersten Person spielt in der Naturalismus-Debatte die Freiheit des Willens. Dies ist ein Lieblingsthema der idealistischen Philosophie. Angeblich ist aus dieser evidenten Fähigkeit des Menschen antinaturalistisches Kapital zu schlagen. Schon Spinoza und Voltaire haben diese Begriffszusammenstellung als inkohärente Kombination kritisiert. Die analytische Philosophie ist fast durchweg dieser Kritik gefolgt. Schlick, Carnap, Russell beziehen den Freiheitsbegriff ausschließlich auf den Handlungsbereich und explizieren die Freiheit des Handelns als Abwesenheit von Zwang. Handlungsfreiheit lässt sich kohärent mit Naturkausalität zusammenbringen. Hobart hat darüber hinaus schon 1934 in einer vielbeachteten Arbeit gezeigt, dass für einen sinnvollen Begriff moralischer Verantwortlichkeit die Kausalstruktur der Welt sogar unabdingbar ist. Die sich uns anscheinend als unhinterfragbar aufdrängende Intuition von der Ursachlosigkeit unserer Entscheidungen ist eine der vielen Illusionen unserer Alltags-Psychologie. Die moderne Neurophilosophie hat die Überzeugung von der Infallibilität der Introspektion längst fallengelassen. Es ist viel glaubwürdiger, dass wir selber unsere internen mentalen Prozesse falsch einschätzen, als dass wir ausgerechnet in dieser fluktuierenden Welt sicheres Wissen besitzen.

Normativer Naturalismus

Die Übertragung der naturalistischen Denkweise auf den normativen Bereich hat von jeher Zweifel geweckt. Aufgrund der weithin akzeptierten Barriere zwischen dem Reich des Faktischen und der Welt der Normen und Werte schien sich hier ein unüberwindlicher Hiatus aufzutun, den der Naturalismus keineswegs überbrücken könne. Bis in die Gegenwart verteidigen u. a. die Vertreter einer theonomen Moral die Irrelevanz deskriptiven Wissens für die Welt der Normen. So der evangelische Theologe Georg Hunteman: „Biblisches Ethos kann sich nicht an der Natur orientieren". Man muss den früheren Rationalisten und Aprioristen zu Gute halten, dass lange Zeit nichts über die stammesgeschichtlichen Engramme im Gehirn bekannt war. Mit der Kenntnis spezifischer Orientierungen, Neigungen, Tendenzen unserer emotiven biologischen Basis ließ sich die Existenz absoluter extrasomatischer Werte schlecht verbinden. Daraus resultierte das Unternehmen der Bioethiker wie E. Wilson und M. Ruse, Moralphilosophie als angewandte Wissenschaft zu begreifen. Damit hat die Naturalisierungsstrategie auch die Ethik erreicht: Je besser man die materielle Basis des wertenden Systems versteht, um so eher werden die Quellen der moralischen Haltungen und Einstellungen plausibel. Wenn man erkannt hat, dass viele Werte stammesgeschichtliche Adaptionen darstellen, damit Optimierungen für den Existenzkampf bilden, dann ist eine platonische Existenzform der Werte höchst unglaubwürdig. Naturalisierung in der Ethik heißt nicht einfach, naturwüchsige Tendenzen gut zu heißen, sondern unser Gefühl von moralisch Richtig und Falsch, das als Basis für unseren ethischen Kanon dient, als Optimierung der Evolution des Gehirns zu erkennen. Man will also aus der materialen Basis des moralischen Fühlens die heute akzeptierten Verhaltensregeln gewinnen. Soweit befinden wir uns auf der Erklärungsebene.

Die Naturalisten wie E. O. Wilson sind aber auch überzeugt, dass selbst für die Rechtfertigungsebene die emotive Basis unserer Wertungen von Belang ist. Um nicht bei der Restriktion, die jede Ethik darstellt, an den moralischen Subjekten vorbeizunormieren, müssen Brückenprinzipien (H. Albert) eingesetzt werden. Ein klassisches Brückenprinzip ist aus dem Römischen Rechtssystem bekannt: „Ultra posse nemo obligatur". Die Verpflichtung des moralischen Subjektes muss auf die empirischen Möglichkeiten Rücksicht nehmen. Die empirischen Möglichkeiten sind aber gerade die schon erwähnten stammesgeschichtlichen Programmierungen. In Unkenntnis der faktischen Natur des Menschen wurden diese durch aprioristische Normierungen in unsinnige Konflikte hineinmanövriert.

Der Paradefall eines solchen Konfliktes war die über Jahrhunderte verteidigte Sexualethik, in der an die Menschen den biologischen Programmen extrem zuwiderlaufende Forderungen gestellt wurden, die auf der anderen Seite für ein glückliches Zusammenleben der Geschlechter gar nicht erforderlich war. Die normative Prinzipien-Ethik entartete in diesem Fall zu einem Zwangssystem, weil keine Brücken zur faktisch im Menschen verankerten Triebsituation vorhanden wa-ren. In Kants „Metaphysik der Sitten" findet man viele Beispiele dafür, wie idealistische Leitvorstellungen ohne Rücksicht auf empirische Gegebenheiten der biologischen Natur des Menschen zu absurden ethischen Forderungen geführt haben. Hingegen gehen moderne Vertreter einer evolutiven Ethik wie Michael Ruse dazu über, die Dispositionen des Individuums aus der Stammesgeschichte in Rechnung zu stellen, wenn es sich um die Gewichtung von Mustern des Sexualverhaltens handelt. Naturalismus in der Ethik bedeutet also – dies ist zu beto-nen – kein blindes Übernehmen von natürlichen Verhaltensmustern, sondern die Berücksichtigung der faktischen Strebungen bei der Aufstellung von Handlungsnor-men, um die Spannung zwischen Sollen und Wollen zu minimieren. Eine naturalisti-sche Ethik wird also sicher sparsam mit Restriktionen umgehen. Nur so viele Forde-rungen werden aufgestellt, dass das Wohlbefinden aller Individuen der Gemeinschaft garantiert ist. Ziel einer solchen Ethik ist, dass Menschen nicht aus Selbstzweck irgendwelche Prinzipien erfüllen müssen, sondern dass alle – soweit von den materi-alen Randbedingungen her möglich – ein aus ihrer eigenen Sicht gelungenes Leben führen können. So steht die naturalistische Ethik im Dienste der Idee eines glück-lichen Lebens, dem Zentrum eines modernen säkularen Humanismus

 

 

Die Meinung des Gastautors muss nicht der Redaktionsmeinung entsprechen.

 

Weitere Arbeiten desselben Autors siehe hier.

 

Weitere Arbeiten zum Thema Initiative Humanismus siehe hier.

 




Theologie ist keine Wissenschaft

Von Ralf Michalowsky:

Sie hat an öffent­li­chen Universitäten eben­so­we­nig zu suchen, wie Gebetsräume jed­we­der Glaubensrichtung.

Bis die gesetz­lich ver­an­kerte Trennung von Kirche und Staat Realität wird, ist es noch einen lan­ger Kampf. Es kann nicht sein, dass bei sin­ken­der Zahl von Mitgliedern in den Glaubensgemeinschaften, bei immer mehr Kirchenaustritten, bei mehr als einem Drittel kon­fes­si­ons­freier Menschen in Deutschland, sich die Kirchen zuneh­mend in öffent­li­che Räume drän­gen, um ihren Einfluss aus­zu­deh­nen.

Das geht nicht zuletzt auf Kosten aller Steuerzahler, auch der­je­ni­gen, die bewusst aus einer der Kirchen aus­ge­tre­ten sind. Sie wer­den über die all­ge­mei­nen Steuereinnahmen auch zur Bezuschussung der Glaubensgemeinschaften her­an­ge­zo­gen. Rund 40 Mrd. Euro kas­sie­ren Kirchen und ihnen nahe­ste­hende Sozialwerke jähr­lich vom Staat und ihr eige­ner Beitrag aus Kirchensteuern ist nicht mehr als ein Tropfen auf dem hei­ßen Stein. Nach eige­nen Angaben geben sie weni­ger als 10 % ihrer 9 Mrd. Euro Kirchensteuereinnahmen für soziale Zwecke aus. Vielleicht legen sie ihr Geld aber auch gewinnbringend an: hier klicken.

Nehmen wir ein Beispiel: das Hilfswerk Misereor e.V. Es hat 2009 ca. 50 Mio. Euro an Spenden ein­ge­sam­melt. Das sind etwa 33 % des Gesamtetats. 62 % gibt Vater Staat und nur 5 % rücken die Kirchen raus. Dabei über­stei­gen Verwaltung (mit 2,6 %) und Werbung (mit 3,3 %) den Kirchenanteil schon um 0,9 %. Die Mär von der Unersetzlichkeit kirch­li­chen Engagements bestä­tigt sich auch hier wie­der.

Doch zurück zur Universität. In Münster soll jetzt auf uni­ver­si­tä­rem Grund eine Moschee gebaut wer­den. „Wir haben eine katho­li­sche und eine evan­ge­li­sche Universitätskirche“, sagt Universitäts-Rektorin Prof. Ursula Nelles. Da sei es nur kon­se­quent, wenn die isla­mi­sche Theologie eine Moschee erhalte. Die Baukosten in Höhe von vier Millionen Euro sol­len durch Spenden finan­ziert wer­den. Die Pläne für das neue isla­mi­sche Zentrum mit der Moschee sind sehr kon­kret, sagt des­sen Leiter Prof. Mouhanad Khorchide. Mit einem Flyer wirbt die Universität um Spender. Khorchide: „Wir sind im Gespräch mit gro­ßen isla­mi­schen Stiftungen in Indonesien, Marokko und Katar.“ Voraussetzung für die Annahme von Spenden sei, dass daran keine Bedingungen geknüpft wür­den, dass das Zentrum unab­hän­gig bleibe, so Khorchide. Er ist opti­mis­tisch, „dass die erfor­der­li­che Summe in einem Jahr zur Verfügung steht“.

Nachdem es in NRW seit Februar 2012 in einem Modellprojekt ale­vi­ti­schen Religionsunterricht in staat­li­chen Schulen gibt, will die Landesregierung an der UNI Duisburg-Essen nun einen Lehrstuhl für ale­vi­ti­sche Religionskunde ein­rich­ten.

Dabei sollte doch jedem auf­ge­klär­ten Menschen klar sein: Theologie ist keine Wissenschaft, auch wenn es Thomas von Aquin war, der die­sen Unsinn hof­fä­hig gemacht hat! Alle Religionen sind Produkte mensch­li­cher Phantasie. Meist basie­ren sie auf kon­stru­ier­ten Schöpfungsgeschichten, sind mit Dogmen ver­knüpft und haben alle einen ent­schei­den­den Mangel: sie sind rea­li­täts­fern und nicht über­prüf­bar.

Deshalb kann es sich bei der Theologie nicht um eine Wissenschaft han­deln. Die reli­giö­sen Systeme die­nen viel­mehr dem Machterhalt selbst­er­nann­ter Cliquen, die ihren Nachwuchs mit Steuergeldern in einer Pseudowissenschaft aus­bil­den dür­fen.

Die pseu­do­wis­sen­schaft­li­che Theologie als Lehrfach an den Universitäten muss abge­schafft wer­den!

Der Trend geht aber lei­der in eine andere Richtung. Religiöse Cliquen ver­ste­hen es aus­ge­zeich­net, sich mit poli­ti­schen Herrschaftsstrukturen zu ver­net­zen. Sie haben Lobbyisten im Bundestag und in allen Länderparlamenten. Um die Akzeptanz ihrer eige­nen Existenz abzu­si­chern und zu stär­ken, sind sie sogar bereit, öku­me­ni­sche Unterstützung zu leis­ten. Das geht über die Zusammenarbeit der christ­li­chen und jüdi­schen Glaubensgemeinschaften hin­aus und erstreckt sich zuneh­mend auch auf die Interessen der reli­giö­sen Cliquen aus dem islamisch-religiösen Milieu. Wenn es um die Expansion und die Mehrung des eige­nen Reichtums und Einflusses geht, spie­len reli­giöse Alleinvertretungsansprüche plötz­lich eine unter­ge­ord­nete Rolle.

Wenn es in Münster katho­li­sche und evan­ge­li­sche Universitätskirchen gibt, dann ist das schon schlimm und nicht akzep­ta­bel. Das als Argument für den Bau einer Moschee auf staat­li­chem Terrain her­an­zu­zie­hen, passt zwar in die Argumentationskette der Religioten, ist aber falsch. Gebetsräume jed­we­der Couleur müs­sen pri­vat betrie­ben wer­den und haben unter dem Dach einer staat­li­chen Universität nichts zu suchen.

Aufgeklärte Menschen müs­sen sich end­lich stär­ker orga­ni­sie­ren, zusam­men­schlie­ßen und durch Schaffung von Transparenz und Verbreiten von Informationen die­sen Trend umkeh­ren.

Unsere Ziele sind:

  • Theologie weg von den öffent­li­chen Universitäten
  • keine staat­li­che Förderung von theo­lo­gi­schen Studiengängen
  • keine staat­li­che Förderung der Ausbildung von Religionslehrern
  • Religion als Schulfach abschaf­fen und durch Ethik und Kunde der ver­schie­de­nen Glaubensrichtungen erset­zen
  • keine Erziehungseinrichtungen (KITA, Schulen, Universitäten) in kirch­li­cher Trägerschaft
  • keine Bezahlung des kirch­li­chen Führungspersonals durch den Staat

Stoppt den reli­giö­sen Expansionsdrang – über­all!

Ralf Michalowsky ist Sprecher der Landesarbeitsgemeinschaft Laizismus in der LINKEN. NRW und war bis zum Mai 2012 als MdL reli­gi­ons­po­li­ti­scher Sprecher der LINKEN Landtagfraktion.

[Über­nahme von: Die Freiheitsliebe]

 

 




® USE GOTT

usegott

 

Lieferschein Nr. 00029324466708835436 (Das Bild ist dem Lieferschein unten entnommen):

Wir liefern wie bestellt:

1 Stck. Urknall;
Ausführung: x-dimensionales Raum-Zeit-Kontinuum mit verletzter
CP-Invarianz (linkshändig).

Entsprechend ihrer Spezifikation:
Die Einheit sollte die Fähigkeit haben, in der Initial-Phase stabile leichte Teilchen zu generieren und zu grösseren Strukturen zu akkumulieren, in denen durch Nukleosynthese schwere Elemente erzeugt werden, die unter günstigen Bedingungen zu selbstreplizierenden Molekülen führen können.
Daraus resultierende komplexe Strukturen sollten in späteren Entwicklungsphasen die Fähigkeit zur Selbstreflektion aufweisen.

Anmerkung:
Bei der Installation auf ausreichenden Platz achten, da in der vorgegebenen Konfiguration eine rasche und andauernde/beschleunigte Expansion erfogt.

Achtung:
Aufgrund systemimmanenter Unschärfe keine Gewähr für wünschenswerte Entwicklung im Bereich der Selbstreplikation! Um mögliche ungewollte Entwicklungen zumindest lokal zu isolieren, wurde eine Geschwindigkeitsbegrenzung auf c implementiert.
Darüber hinaus wurde die Richtung des Zeitpfeils zur Vermeidung von Paradoxa restriktiv unidirektional determiniert.

MfG
USE GotT
(Universale Singularitäten & Entitäten
Gesellschaft ohne technische Termination)

(nach Diktat verreist)

P.S.: Alles Quark!

Und hier das Original des Lieferscheins:




Vom Sinn und Nutzen der Wissenschaft

Von Jan M. Kurz, Initiative Humanismus.

“When kids look up to great scientists [philosophers and other thinkers] the way they do to great musicians and actors, civilization will jump to the next level." – Brian Greene

Der zentrale Kern des Humanismus besteht teilweise bereits seit der vorchristlichen Antike,  spätestens jedoch der Renaissance aus Vernunft und Aufklärung. Diese beiden Leitfaktoren werden erworben durch den Einsatz und Umgang mit Rationalität, Naturalismus, Wissenschaft, Philosophie und Kunst. Herausragende Bedeutung besitzen in dieser Hinsicht insbesondere Naturwissenschaft und Philosophie. Erstere ermöglicht nunmehr seit Erfindung der Schriftsprache vor über 6000 Jahren den kontinuierlichen Aufstieg und zunehmend beschleunigten technischen Fortschritt unserer menschlichen Zivilisation einerseits, aber auch einen immensen globalen Wissens- und Bildungszuwachs und damit den soziokulturellen und ethischen Fortschritt andererseits. Dort, wo unser empirisch und experimentell abgesichertes Wissen über das Leben, den Kosmos und den ganzen Rest an seine vorläufigen Grenzen stößt, beginnt das weite Feld der Philosophie und Metaphysik. Im Zusammenspiel mit der Naturwissenschaft gelingt es auf diese Weise in einem Akt der fruchtbaren Synthese stets weiteren Erkenntnisgewinn zu erzielen. Eine hoch entwickelte menschliche Gesellschaft ist immer auch eine geistig emanzipierte Wissensgesellschaft.

Damit Aufklärung, Vernunft und Rationalität, die Grundlagen der modernen Zivilisation gesamtgesellschaftlichen Anklang und Unterstützung finden können und damit es gelingt die Herausforderungen der Zukunft erfolgreich zu meistern, gehört es unter anderem zur Aufgabe des modernen/evolutionären Humanismus, Wissen und Erkenntnisse aller Fachbereiche und Disziplinen einer möglichst großen Audienz nahezubringen. Besonderes Augenmerk darf dabei weniger die Frage nach wirtschaftlicher oder kurzfristiger technischer Relevanz darstellen. Diese muss zwei anderen bedeutsamen Werten der Wissenschaft an tertiärer Stelle nachgeordnet werden. Denn die Praxis sollte das Ergebnis des Nachdenkens sein, nicht umgekehrt.

An erster Stelle dem Vergnügen, dem geistigen Genuss und der Freude, welche die Beschäftigung mit intellektuellen Fragen für einen nicht unerheblichen Teil der Menschen mit sich bringt. Diese Freude kann auf zwei Arten gewonnen werden. Zum einen aus der Lektüre, dem darüber Nachdenken und Weiterdenken, sowie überliefern und Erklären der wissenschaftlich-philosophischen Fragen und Antworten, zum anderen aus der aktiven wissenschaftlichen Arbeit selbst. Dieser Punkt ist wichtig und wird von politischer und didaktischer Seite generell stark unterschätzt. Ist dieser rein individuelle und persönliche Genuss für die Gesellschaft insgesamt von Nutzen? Ja, aus zwei spezifischen Gründen: erstens muss eine globalisierte, pluralistische Wertegemeinschaft überlegen, welche Ziele sie verfolgt. Sofern sie die Voraussetzungen schaffen will, dass Menschen sich positiv mit ihren zugrunde liegenden Werten und Fundamenten assoziieren und sich an ihnen erfreuen können, ist dieser Punkt so wichtig wie irgendetwas sonst. Der zweite Aspekt dessen ist die positive Auswirkung dieser Erfahrungen auf unser mühevoll errungenes modernes Weltbild. Heutige Menschen nehmen die Welt als unendlich viel wunderbarer und erstaunlicher wahr, als es für frühere Generationen aufgrund ihres Mangels an fundiertem Wissen je möglich gewesen wäre. Der Eindruck, die Wissenschaften würden die Fantastik und Vielfalt des Kosmos auf ein kaltes und eintöniges Maß reduzieren, beruht auf einem Trugschluss und sehr oberflächlicher Betrachtung dieses in Wahrheit horizonterweiternden Prozesses. Es gilt darum stets aufs Neue den fundamentalen Fortschritt der Menschheitsgeschichte zu analysieren, zu bewundern, zu würdigen und konstruktiv zu kritisieren, um den kommenden Entwicklungen ohne Angst und Dogmatismus aber auch ohne hysterisch überzogene Heilserwartungen mit einem gesunden Anteil an Skepsis, Optimismus und kritischer Rationalität zu begegnen. Man sollte niemals besorgt sein bei der Erkundung immer größerer und erstaunlicherer Geheimnisse auf eine Antwort zu stoßen, die die eigenen Erwartungen enttäuschen könnte. Die Geschichte des „homo sapiens“ lehrt eindrucksvoll, dass es langfristig sinnvoller ist hoffnungsvolle Illusionen oder absichtliche Fehlannahmen im Austausch gegen die derzeit aktuelle Wahrheit über Bord zu werfen. Es ist besser falsche Ideen sterben zu lassen, bevor Menschen für falsche Ideen sterben müssen. Dies ist somit das epistemisch/hedonistische Argument.

Der zweite Punkt ist der konstruktive Umgang der Wissenschaften mit Zweifeln, Nichtwissen und Unsicherheit. Für den allgemeinen Fortschritt ist es von allergrößter Bedeutung Raum für Zweifel zu lassen. Nur so gelingt es zwischen Antworten unterschiedlicher Gewissheiten zu differenzieren.  Manche Aussagen und Erklärungen sind offenkundiger Unfug, andere höchst ungewiss, wieder andere schön plausibel, fast sicher oder sogar mit größtmöglicher Sicherheit verifiziert. Doch Garantien gibt es grundsätzlich nicht. Menschen, die sich mit Wissenschaft und Geschichte auseinandersetzen, egal ob aktiv oder passiv, sind an Skepsis und den Eindruck des vorläufigen Nicht-Wissens gewöhnt und mit dem sinnvollen Umgang dieses Instruments vertraut. Sie kennen die kleinen aber wichtigen Unterschiede zwischen einer präzisen Theorie, einer plausiblen Hypothese, einem vorläufigen Postulat, einer überwiegend metaphysischen Interpretation, einem einfachen Indiz, ordentlichen Beleg oder starken Beweis. Will man für ein bislang ungelöstes Problem eine Lösung finden, muss die Tür zum Unbekannten angelehnt bleiben. Im historischen Kontext musste die Freiheit zu zweifeln während der Aufklärung mühsam erworben werden. Die Freiheit Fragen stellen zu dürfen, sich nicht auf bestehende Aussagen und Versicherungen verlassen zu müssen, das Recht zu haben, nicht sicher sein zu müssen, ist keine Selbstverständlichkeit. Es ist eine junge Innovation in der Menschheitsgeschichte und unbezahlbar erfolgreich. Die Idee von Demokratie und Menschenrechten, vom Dualismus von fair und unfair basiert darauf. Die Einsicht, dass niemand wirklich wusste, wie am besten regiert werden sollte, schuf das Leitbild, ein System einzuführen, in dem sich neue Ideen entfalten, erprobt und, falls nötig, über Bord geworfen werden konnten, um wiederum neue hereinzuholen – ein System auf der Basis des Experiments. Doch die meiste Zeit über regierte gesellschaftsübergreifend nicht das Recht auf Unsicherheit, sondern die Pflicht zum Dogma, auf Ideologie, auf Leitdoktrin, Gehorsam und zur ewigen, unanfechtbaren Wahrheit. Man kann kaum behaupten, dieser Bremsklotz der Zivilisation sei heutzutage abgeschafft. Die Chance und Möglichkeit immer neue Fragen zu stellen und Antworten finden zu dürfen, kann nur eine Minderheit der Weltbevölkerung für sich verbuchen. Diesen Schatz und den Kampf, den sein Erwerb einst kostete nicht zu vergessen, nicht zu riskieren ihn wieder zu verlieren und auch diejenigen in Zukunft daran teilhaben zu lassen, welchen bislang die Hoffnung darauf verwehrt ist, bleibt wichtig und ein Teil der Verantwortung der Wissenschaften vor der Gesellschaft. Das ist der wissenschaftliche Wert des Fallibilismus.

Die dritte Säule der Wissenschaft schließlich ist ihre immense praktische Relevanz und damit der Technologieaspekt: die Tatsache, dass wir dank unserer Kenntnisse, Entwicklungen und Forschung alles Mögliche tun und machen können, um das Leben von Menschen zu verbessern, zu erleichtern und zu verschönern. Die angewandten Wissenschaften sind das Mittel der Wahl, um die Menschheit von ihren Sorgen und Nöten zu befreien. Die Liste bedeutsamer Erfindungen seit Anbeginn der Menschheit ist so lang und umfangreich, dass eine Auflistung hier jeden Rahmen sprengen würde und reicht von der Entwicklung des Bieres über Papyrus über die Dampfmaschine und Antibiotika bis zum Internet und Quantencomputern. Die Beobachtungen vielerlei Paradigmenwechsel seit der Nutzung des Feuers durch unsere Urahnen legen nahe, dass der technologische Fortschritt bis heute keineswegs eine lineare Entwicklung ist, sondern sich auf einer logarithmischen Skala bewegt. Näherungsweise lässt sich der Wissenszuwachs der globalen Menschheit durch den Verlauf einer Exponentialfunktion beschreiben und veranschaulichen. Obwohl nicht sicher ist, in wie weit diese Entwicklung in Zukunft Bestand haben wird oder sich als unvollständiges Modell erweist, so bleibt der an vielen Faktoren beobachtbare Trend zumindest tendenziell erhalten. Es darf davon ausgegangen werden, dass insbesondere das 21. Jahrhundert durch das vermehrte Aufkommen einiger weniger Schlüsseltechnologien geprägt werden wird, deren disruptive Wirkung auf die Gesellschaft noch nicht vollendet abgeschätzt und beurteilt werden kann. Synthetische Biologie, Nanotechnologie, künstliche Intelligenz, Quanteninformationsverarbeitung und womöglich die lang ersehnte Kernfusion und in deren Gepäck eventuell ein neues Zeitalter der Raumfahrt beherbergen das Potential in den kommenden Jahrzehnten das Wesen der Zivilisation und Gesellschaft von Grund auf zu verändern. Den damit einhergehenden Chancen und Gefahren liegt seitens des bloßen Wissens keine unmittelbare Weisung zugrunde, wie diese Technologien angewendet werden sollten. Die angewandten Wissenschaften verleihen uns eine große Macht die Welt zu verändern, zum Positiven, wie zum Negativen. Diese Macht ist eindeutig von unschätzbarem Wert, auch wenn sie durch das, was wir mit ihr anzustellen vermögen negiert werden kann. Dieser Umstand ist jedoch kein Makel der Wissenschaft an sich, sondern ein klar menschliches Problem. Genau deshalb besteht die Pflicht und die Hoffnung einer humanistischen Gesellschaft darin, sich dieser Herausforderung fernab jedes Dogmas oder Vorurteils durch den Einsatz der durch die natürliche Evolution entwickelten (utilitaristischen) Ethik anzunehmen. Denn nur Wissen kann Wissen beherrschen!

In diesem Sinne:

“Science is more than a body of knowledge, it´s a way of thinking, a way of skeptical interrogating the universe.” –Carl Sagan

Hinweis des Autors:

Diese Schriftist inspiriert von einer Rede des berühmten Genies und Physik-Nobelpreisträgers Richard Phillips „The Quantum Man“ Feynman mit dem Titel: “The Value of Science“, National Academy of Science (Autumn 1955), erstveröffentlicht in: Feynman, Richard P., What Do You Care What Other People Think?, 1988, W. W. Norton.

J.M.K.

 




Gedankenexperimente: Teleportationen und Zeitreisen

Von Jan M. Kurz (Initiative Humanismus)

„Beam mich hoch Scotty“, gilt als bekanntester Satz der Star-Trek Geschichte, wenngleich er in diesem Wortlaut niemals von einem der Charaktere verwendet wurde. Nichts desto trotz fand innerhalb kurzer Zeit ein beträchtlicher Anteil unterschiedlicher Science-Fiction Technologien Eingang in die Pop-Kultur. Eine Entwicklung, welche sinnbildlich durch diesen Satz verdeutlicht wird. Neben der altbekannten Teleportation, die ursprünglich schon von Anbeginn in den 60ern von Gene Roddenberry aus produktionstechnischen Gründen erfunden wurde, gibt es noch eine ganze Reihe weiterer faszinierender und allseits beliebter Technologien, die den Reiz der Zukunftsunterhaltung ausmachen. Davon zeugt beispielsweise die unglaubliche Vielzahl an Filmen, deren Handlung auf Zeitreisen basiert. Hier seien stellvertretend die Werke „Zurück in die Zukunft“, „Terminator“, „Planet der Affen“ und „Man in Black 3“ genannt. Sehr vielen Leuten sind nicht zuletzt daher Gedankenspiele wie das Großvater-Paradoxon ein Begriff.

Ein großer Teil des Reizes solcher exotischen Darstellungen von Technologie und Zukunft liegt sicherlich daran, dass es dem Leser oder Zuschauer an dieser Stelle oft schwerfällt, zwischen Wissenschaft und reiner Fiktion zu unterscheiden, was die eigene Fantasie umso mehr befeuert und antreibt. Denn wer würde nicht gerne selbst einmal in die Vergangenheit reisen, um altes Unrecht ungeschehen zu machen oder mit Lichtgeschwindigkeit der Zukunft entgegen rasen, um den Fortschritt und die Zivilisation einer neuen Ära zu erleben? Wie angenehm und aufregend doch das Leben sein könnte, wenn sich manche Gesetze der Physik einfach aus den Angeln heben ließen, aber wer weiß, eventuell ist das gar nicht einmal nötig und es wird eines Tages tatsächlich möglich sein, sich von Bord eines Raumschiffes aus auf einer Planetenoberfläche materialisieren zu lassen? Schließlich unterscheidet sich Sci-Fi durch ein grundlegendes Element von Weltraum-Fantasy: Wissenschaft, dem Grundpfeiler unserer Zivilisation, der unsere Spezies seit nunmehr über 6000 Jahren unheimlich weit vorwärts gebracht hat. Es bleibt die Hoffnung, dass unser Universum weitaus mehr physikalische Tricks und Abenteuer erlaubt, als man bei oberflächlicher Betrachtung annehmen könnte.

Werfen wir also mal einen Blick darauf, was die Erkenntnisse der Naturwissenschaft über die Realisierbarkeit dieser fantastischen Gedankenexperimente besagen und worin sich „Sci“ und „Fi“ laut aktuellem Kenntnisstand wirklich in die Quere kommen. Dabei sollen weniger konkrete technische Umsetzungen erläutert werden, als vielmehr prinzipielle Chancen und Grenzen.

Beginnen wir mit der Teleportation:

So schwierig es zwar auch sein mag sich den Kopf über solch unkonventionelle Transportmethoden wie die Teleportation zu zerbrechen: rein physikalisch spricht schon einmal nichts dagegen, denn die Naturgesetze und das Fundament des Kosmos erlauben sie nicht bloß, sie ermuntern sogar dazu. Diese Erkenntnis ist mit ihrer ersten experimentellen Bestätigung im Jahre 1993 allerding noch recht neu. Um ein Objekt an einem anderen Punkt in Zeit und Raum wiederherstellen zu können, benötigt man natürlich exakte Werte über dessen Zustand. Diese Daten müssen dermaßen präzise sein, dass die Zusammensetzung des Objektes vor der Teleportation bis ins aller letzte Detail bekannt ist um von A nach B übertragen werden zu können. Während dieser Signalübertragung selbst sollte logischerweise ebenfalls keine Information verloren gehen oder durcheinander geraten, denn wer braucht schon eine verkorkste Blaupause? Nun ergibt sich aber für diesen Scan ein unerbittliches Problem: da für eine ideale Genauigkeit die Position und der Impuls einzelner Atome oder Elementarteilchen festgehalten werden müssen, stoßen wir unweigerlich in das Territorium der Quantenphysik und ihrer Eigenheiten vor. Dank der Heisenbergschen Unbestimmtheitsrelation, die sich aus dem Welle-Teilchen-Dualismus ergibt, sorgt die Quantenmechanik dafür, dass eine so genaue Messung zum einen immer unvollständig ausfällt und bringt während des Prozesses zusätzlich die Quantenzustände der gescannten Moleküle, Atome und anderen Teilchen in Unordnung. Das führt dann dazu, dass nach der Messung niemals mehr genau klar ist, wie das System vorher im Detail beschaffen war. Als Konsequenz gingen Physiker lange Zeit davon aus, dass die Informationsmenge zur Wiederherstellung eines gemessenen Systems für eine Teleportation prinzipiell nie ausreichen würde. Damit wäre sie völlig unmöglich.

Aber es gibt einen rettenden Ausweg. Das Geheimnis zur Lösung des Dilemmas liegt in einer Eigenschaft der Quantenmechanik namens Quantenverschränkung (engl.: Entanglement). Einfach gesprochen sorgt dieser Effekt dafür, dass zwei Quantenteilchen mehr Informationen mit einander teilen können, als in der klassischen Physik möglich wäre. Dieser spezielle Informationsüberschuss kann tatsächlich gezielt dazu genutzt werden, den obligatorischen Verlust bei der Messung zu kompensieren. Dies gelingt wie folgt: Alice möchte ein Elektron zu Bob teleportieren. Zusätzlich zu dem Elektron das teleportiert werden soll, besitzen Alice und Bob noch ein weiteres verschränktes Paar Elektronen. Alice nimmt nun gleichzeitig eine Messung an dem Teleport-Elektron und an ihrer Hälfte des verschränkten Paares vor. Der Zustand des verschränkten Partners bei Bob ändert sich dabei entsprechend. Sowohl das Elektron, wie auch die verknüpfte Hälfte werden bei dieser sogenannten Bell-Messung unwiderruflich zerstört. Das Ergebnis dieses Scans sendet sie, beispielsweise über einen Laser oder Radiowellen zu Bob. Obwohl die Messung am Teleport-Elektron und ihrer Hälfte nun unvollständig ausgefallen ist und für sich allein keine brauchbare Information enthält, kann Bob die erhaltene Information seiner eigenen Hälfte des verschränkten Elektrons hinzufügen. Bei diesem Prozess wird sich seine Hälfte des Paares in das Teleport-Elektron von Alice verwandeln. Das Elektron, welches ursprünglich bei der Bell-Messung von Alice gemeinsam mit ihrer verknüpften Hälfte zerstört wurde, taucht nun also wieder bei Bob aus dessen Hälfte auf. Mittlerweile gelingt eine solche Teleportation über Distanzen bis ca. 150 km nicht nur mit Elektronen und Photonen, sondern sogar mit einzelnen Atomen. Selbst mit größeren Molekülen, die aus dutzenden oder eventuell gar 100 Atomen bestehen, beispielsweise dem Fußballmolekül Fulleren, sollte dies möglich sein.

Zum Unglück der Star-Trek-Fans ist damit das Ende der Fahnenstange leider nahezu erreicht. Denn Quantenteleportation funktioniert wie der Name bereits besagt ausschließlich bei sehr kleinen Dingen. Eine weitere Eigenheit der Quantentheorie, die sogenannte Dekohärenz sorgt nämlich dafür, dass die unbedingt nötige Verschränkung größerer Objekte auch bei guter Isolierung scheitert und zusätzlich die Messung am Transportobjekt nicht mehr richtig funktioniert. Menschen wird man auf diese Art daher wohl nie transportieren können. Allerdings bietet die Quantenteleportation die Möglichkeit bereits in näherer Zukunft Computerchips und Speicherbausteine auf Quantenbasis zu konstruieren, sodass eines Tages Quantencomputer auch in kompakten Geräten zu finden sein dürften und mit etwas Glück einen Großteil der langsamen Elektrotechnik ersetzen. Der Chiphersteller IBM und amerikanische Geheimdienste sind bereits eifrig mit Forschung und Entwicklung beschäftigt. Sogar ein leistungsstarkes Internet kann durch diese Technologie entwickelt werden. Dieses Internet bräuchte nicht einmal mehr Kabel und Leitungen und könnte sich darum irgendwann auch über verschiedene Planeten des Sonnensystems erstrecken, beispielsweise zum Mars. Absolut abhörsicher und resistent gegen Hackerangriffe wäre es obendrein. Eine zukunftsträchtige Technologie. Anmerkung am Schluss: die Lichtgeschwindigkeit wird bei einer Teleportation niemals überschritten, weil der unvermeidbare Austausch der klassischen Information nur auf konventionellem Weg erfolgen kann, z.B. über Laser oder Radiowellen. Außerdem muss eine Hälfte der verschränkten Teilchen an den gewünschten Endpunkt geliefert werden, was ebenso maximal mit Lichtgeschwindigkeit passieren kann.

Zeitreisen:

Intuitiv könnte man annehmen, dass die Beantwortung der Frage, ob es einfacher sei in die Zukunft oder die Vergangenheit zu reisen ähnlich vage und kompliziert ausfallen wird, wie darauf, an welchem Ort sich denn ein Quantenpartikel vor Beginn einer Messung befinde. Glücklicherweise gelingt uns das in diesem Fall aber wesentlich einfacher. Die klare Ansage lautet: das Bereisen der Zukunft ist gegenüber der Vergangenheit ein Kinderspiel! Wie kommt das?

Die leichteste Art eine Reise in die Zukunft zu unternehmen – und die zugegebenermaßen trivialste Methode – ist, schlicht und ergreifend einfach abzuwarten und nichts zu tun. Bekanntermaßen bringen die Gesetze und Bedingungen unseres Universums den Zeitfluss automatisch mit sich. Dieses definitiv oft zu wenig beachtete, weil sehr unauffällige Phänomen wird in der Physik als Zeitpfeil bezeichnet. Dieser Zeitpfeil setzt sich aus 3 hierarchischen Komponenten zusammen. Die erste ist der psychologische Pfeil. Als subjektive Unterscheidung der Vergangenheit und Zukunft besagt er, dass man sich zwar an vergangene, nicht aber zukünftige Ereignisse erinnern kann. Nummer 2 ist thermodynamischer Natur: die Zukunft ist die Richtung, in welche die Entropie des Universums zunimmt. Systeme in denen ein thermodynamisches Gleichgewicht herrscht, kennen daher weder Zukunft noch Vergangenheit. Zeit ist dort nicht existent. Für dissipative Strukturen wie Lebewesen resultiert daraus letztendlich der psychologische Zeitpfeil. Im „ontologischen Keller“ befindet sich schließlich der kosmische Zeitpfeil. Er bewirkt eine kausale Entropiezunahme durch die Expansion des Universums. Zeit ist somit der Größenzuwachs des Kosmos, mit dem sein Gehalt an geordneter, hochwertiger Energie abnimmt und sein (nicht einsehbarer) Informationsgehalt, die Entropie zunimmt. Daher kann man auch sagen, die Zeit fließt in die Richtung, in der das Universum abkühlt.

Wenn man von Reisen in die Zukunft spricht, meint man aber in aller Regel nicht diese langsame, universelle Methode, sondern einen Trick, den Albert Einsteins berühmte Relativitätstheorie mit sich bringt. Er lässt sich auf zwei Arten ausnutzen. Eine Möglichkeit ist, sich mit sehr hoher Geschwindigkeit im interstellaren Raum fortzubewegen, beispielsweise einem Raumschiff. Je näher an der Lichtgeschwindigkeit man sich bewegt, desto langsamer vergeht die Zeit im bewegten Bezugssystem. Bei 99,96% der Lichtgeschwindigkeit beträgt der Faktor 3,4. Nach einer 20 jährigen Reise in diesem Tempo wären auf der Erde bereits 68 Jahre vergangen. Das Zwillings-Paradoxon der beiden 20 jährigen Brüder dürfte vielen Lesern ein Begriff sein. Wenn es in Zukunft gelänge, über technische Nutzung des neu entdeckten Higgs-Bosons die Masse eines Raumschiffes mit Hilfe des Higgs-Mechanismus drastisch zu reduzieren und eine geeignete Energiequelle wie Kernfusion zur Verfügung stünde, ließen sich solche Zeitreisen tatsächlich realisieren. Alternativ kann auch ein Aufenthalt in den starken Schwerefeldern massereicher Körper den individuellen Zeitfluss stark beeinflussen. Mit einem Raumschiff könnte man beispielsweise einige Zeit lang einen Neutronenstern oder gar ein schwarzes Loch umkreisen. Bei der Rückkehr zur Erde wäre ebenso wesentlich mehr Zeit vergangen, als im Bezugssystem des Raumschiffes der Fall war. Für eine praktische Durchführung bietet sich jedoch die erste Methode besser an.

Viel schwieriger wird es jedoch, wenn wir gegen den Zeitpfeil anschwimmen und einen Abstecher in die Vergangenheit unternehmen wollen. Um das zu erreichen sind schwere Bandagen nötig und die wenigen erfolgreichen Experimente zeigen bereits sehr enge Grenzen der Machbarkeit auf.

Zwar erlaubt die Relativitätstheorie Sprünge in die Vergangenheit ebenso wie in die Zukunft, die praktische Durchführung erscheint im Gegensatz zu letzteren allerdings sehr schwierig. Um in die Vergangenheit zu reisen benötigt man leider wesentlich mehr als einen DeLorean DMC-12 und einen Bleifuß. Die derzeit einzig bekannte Möglichkeit ein makroskopisches Objekt in die Vergangenheit zu befördern beinhaltet die Nutzung sogenannter geschlossener Zeitschleifen, welche in großem Maßstab nur durch exotische Objekte wie schnell rotierende schwarzer Löcher oder speziell konfigurierte stellare Staubwolken erschaffen werden könnten. Zudem treten bei einem Eintritt in die Vergangenheit einige Kontradiktionen auf (vgl. mit WB: Zeitreisen aus Sicht eines Physikers): angenommen der Zeitreisende führt in der Vergangenheit eine Handlung aus, welche seine eigene Existenz verhindert, indem er seine Eltern tötet. Dann wird er in der Zukunft nicht existieren können, sodass die Zeitreise nicht zustande kommt. Wenn die Reise sich nie ereignet kann er seine Eltern nicht umbringen und die Reise doch unternehmen und so weiter ad infinitum. Man spricht hier von einer Konsistenz-Paradoxie. Das zweite Problem sind Bootstrap-Paradoxien: wenn der Zeitreisende eine bestimmte Information in die Vergangenheit befördert, beispielsweise ein Kunstwerk oder Schriftstück, kann es passieren, dass eine Person dort anschließend dafür sorgt, dass diese in die Zukunft gelangt und dann vom Reisenden wieder in die Vergangenheit zurück gebracht wird. Das Problem: letztlich hat niemand dieses Gedicht, das Kunstwerk, die wissenschaftliche Theorie zu keinem Zeitpunkt je erschaffen. Wie kann sie also überhaupt existieren? Beide Paradoxa können sich während der Zeitreise sogar vermischen.

Diese logischen Widersprüche legen nahe, dass Ausflüge in vergangene Zeiten entweder völlig unmöglich sind und von den Naturgesetzen generell nicht zugelassen werden, oder dass solche Reisen zwar durchführbar sind, aber aufgrund eines Selbstkonsistenz-Prinzips der normalen Kausalität niemals schaden können. Weil alle Probleme dieses schwierigen Gedankenexperiments auf dem Transport physikalischer Information und deren Interaktion untereinander beruhen, ist dies ein idealer Untersuchungsgegenstand für die Quanteninformationstheorie. In einem neuen und hochkomplexen Experiment aus 2009 nutzte eine Gruppe von Wissenschaftlern um Seth Lloyd und Aephraim Steinberg ihre Erkenntnisse aus der Entwicklung von Quantencomputern um mit Hilfe eines Quantenschaltkreises eine geschlossene Zeitschleife im Labor zu simulieren und einzelne Photonen (Lichtquanten) damit in die Vergangenheit zu teleportieren. In dem Versuch wurden beide essentiellen Paradoxa aufgeklärt und die Existenz des von Stephen Hawking postulierten Selbstkonsistenz-Prinzips auf quantenmechanischer Grundlage erhärtet.

Bei dem Experiment wurde ein Photon einige Sekundenbruchteile in die Vergangenheit teleportiert. Die schaltkreisähnliche Vorrichtung wurde dabei so gesteuert, dass das Photon aus der Zukunft sein alter ego der Vergangenheit durch Wechselwirkung treffen sollte und dabei zerstören würde, ähnlich dem Großvater-Paradoxon. Während der Teleportation, also quasi beim Betätigen der Zeitmaschine verstarben in der Tat unzählige Lichtteilchen der Gegenwart. Dem zeitreisenden Photon gelang es jedoch niemals, sein früheres Ich zu zerstören und damit eine Kausalitätsverletzung zu produzieren. Das Photon betrat die Zeitschleife, durchlebte dabei einen Flug in die Vergangenheit und wurde dabei mit einer sogenannten Photonenkanone auf sich selbst ausgerichtet, um es zu zerstören oder zumindest abzulenken und am Betreten der Zeitkurve zu hindern. Aber egal wie genau man es ins Visier nahm, weder die Zerstörung noch das aus der Bahn werfen gelang. Denn immer wenn die Kanone so eingestellt wurde, dass die Selbstzerstörung garantiert war, klappte die Teleportation nicht mehr und eine zeitreise fand nie statt. Die Zeitmaschine ging in dem Moment quasi kaputt, sodass eine Zerstörung unmöglich wurde. Sofern nur eine Auslenkung erwirkt werden sollte, gelang der Transfer in die Vergangenheit zwar, aber eine winzige Quantenfluktuation schob die „alte“ Version des Photons immer aus dem Weg, sodass es nicht abgelenkt wurde und die Zeitschleife traf. Weder Konsistenz- noch Bootstrap-Paradoxien traten auf diese Weise auf. Beide Antinomien wurden vom Quantenzufall und Quantenverknüpfung erfolgreich verhindert.

Zwar ist es äußerst unwahrscheinlich, dass sich jemals größere Objekte als Quanten in die Vergangenheit befördern lassen werden, aber zumindest müsste man sich falls doch keine Sorgen darüber machen den Lauf der Geschichte zu verändern oder seine eigene Existenz zu vermasseln, weil der Zeitreisende nach der Teleportation in die Vergangenheit per Quantenverschränkung nach wie vor mit der eigentlichen Gegenwart in Kontakt steht. Normalerweise ist die Zukunft des Universums dank des intrinsischen Zufalls nicht determiniert, die Vergangenheit aber schon. Nach dem Zeitsprung sieht das anders aus. Da sich alles bereits ereignet hat, wird vom Quantenzufall genau die Bahn der Ereignisse erzwungen, die auch ohne Zeitreise passiert wären. Die Quantenphysik unterscheidet zwischen dem, was geschehen könnte, und dem, was geschehen ist. Reist man mithilfe der Quantenphysik in die eigene Vergangenheit zurück, sieht man nur, was konsistent ist mit der Welt, aus der man kommt.

J.M.K, 30.08.2014

 

Quellenverzeichnis:

 




Die Neue Aufklärung

Dieser Beitrag von Epikur63 erschien zuerst auf Freierblick.

Manchmal muss man ein wenig pathetisch sein um den Blick aus dem Alltag herauszuheben. Hier ist ein Video, welches dies tut. Es zeigt den Weg auf, den die Menschheit in ein paar tausend Jahren ging und verdeutlicht, wie sehr Wissenschaft und Technologie unser Leben transformierten. Was heute selbstverständlich ist, wurde in langen Anstrengungen entwickelt. Werfen wir einen Blick zurück:

Eine besondere Rolle spielte für unser heutiges Leben die Epoche der Aufklärung im 17. und 18. Jahrhundert: Sie transformierte die gesamte Gesellschaft und beendete endgültig das dunkle Mittelalter. Vorbereitet durch die Renaissance stellte sie den vernunftbegabten Menschen in den Mittelpunkt, vor allem englische und französische Philosophen begannen auf neue Weise über menschliche Erkenntnismöglichkeiten nachzudenken. Kant war es, dessen “Sapere Aude” die Idee der Aufklärung in zwei Worte zusammenfasste. Neue gesellschaftliche Strukturformen bildeten sich, durch den Dreißigjährigen Krieg war die Dominanz der katholischen Kirche gebrochen, deren Einfluss vorher schon unter dem Nationalstaatsstreben wankte. Es entstand Freiraum für neue Ideen und Toleranz.

Natürlich ist diese Sichtweise pathetisch, einseitig, verklärend und romantisierend. Aber: Sie ist in großen Teilen auch wahr.

Wo stehen wir heute? Die menschheitsbedrohende Gefahr des kalten Krieges ist vorübergezogen, und einige Male war es ganz knapp, als nur die Entscheidungen einzelner relativ niederrangiger Militärs uns vor dem nuklearen Todesstoß retteten: Wer kannte z.B. Stanislaw Jewgrafowitsch Petrow? Neue Gefahren erscheinen am Horizont: Ende der Rohstoffe, Klimawandel, Energiekrisen und die Aufrüstung schwer kontrollierbarer Länder mit ABC-Waffen.

Andererseits sind wir wieder in einer Phase des rapiden Umbruchs des menschlichen Lebens auf diesem Planeten: Die Lebensbedingungen der Gesamtmenschheit verbessern sich, wie z.B. viele der Indikatoren der Millenium Development Goals der Vereinten Nationen zeigen. Die großen Militärnationen gehen friedlicher miteinander um als jemals in der Geschichte der Menschheit. Mit dem Internet wurde ein globales Netz geschaffen, mit dem Menschen interagieren können. In den Wissenschaften stehen wir vor Durchbrüchen, deren Konsequenzen wir noch nicht abschätzen können, z.B. dem Verständnis des Wesens der Gravitation.

Pathetisch? Ja, definitiv, und es ist leicht von übertriebenen Fortschrittsoptimismus zu reden. Aber es sind Hoffnung und Optimismus, welche motivieren und deshalb ist ein wenig naives Pathos in Ordnung, wenn man sich dabei etwas selbstironisch zusieht. Hier also das Video

http://www.youtube.com/watch?feature=player_embedded&v=pzKZb3qHyXk

 

Die Meinung des Gastautors muss nicht der Redaktionsmeinung entsprechen.

 

Weitere Arbeiten desselben Autors siehe hier.