1

Gott würfelt nicht

Gegen Ende des 19. Jahrhunderts schien die Physik weitgehend an ihre Grenzen gestoßen zu sein. Was sollte es noch Neues im „realen Dasein“ zu erforschen geben? Planeten zogen ihre Bahnen nach Newtons Gesetzen, Mechanik, Thermodynamik, Elektro-Magnetismus, Wellenlehre und vieles anderes boten kaum noch Chancen für nachwachsende Physiker, sich zu profilieren, Ruhm und Ehre einzuheimsen. Vielfach wurde davon abgeraten, dieses Fachgebiet überhaupt als Studienanfänger in Erwägung zu ziehen.

Doch dann kam alles ganz anders. Das beginnende zwanzigste Jahrhundert wurde Zeuge des Beginns einer beispiellosen Wissensexplosion, an deren Ursprung ein Name nicht wegzudenken ist: Albert Einstein. Untrennbar mit ihm verbunden bleiben für die Öffentlichkeit seine spezielle und allgemeine Relativitätstheorie. Die Arbeiten hierzu haben ihn zu einem internationalen Popstar der Physik gemacht und ein Medieninteresse wie niemals vorher und wohl nur selten nachher entfacht. Jedes Kind weltweit kannte und kennt seinen Namen – seine Theorien und die weit reichenden Folgerungen daraus haben allerdings nur die wenigsten verstanden. Außerhalb von Fachkreisen ist dabei noch weniger bekannt, dass Einstein auch Mit-Vater der zweiten großen physikalischen Umwälzung des zwanzigsten Jahrhunderts ist: der Quantenphysik.

Seine Arbeit zur Deutung des photoelektrischen Effekts mit Hilfe der Lichtquantenhypothese brachte ihm schließlich 1921 den Physik-Nobelpreis, nachdem er seit 1910 bereits mehrfach für den Nobelpreis wegen der Relativitätstheorie vorgeschlagen worden war. Obwohl die britische Sonnenfinsternis-Expedition von 1919 eindeutige Belege für die Richtigkeit der Relativitätstheorie erbracht hatte, konnte sich das Nobelpreiskomitee wegen immer noch bestehender Vorbehalte nicht dazu durchringen, ihm hierfür den Preis zu verleihen. Für das allgemeine Publikum verstärkte sich dadurch die Meinung, das Komitee habe eine „Notlösung“ einer eindeutigen Stellungnahme vorgezogen, vor allem auch weil Einstein seinen Vortrag vor der Akademie zudem nicht zur Quantenphysik hielt, sondern zur Relativitätstheorie.

Die weitere physikalische Forschung wurde bis auf den heutigen Tag dabei in weitaus größerem Maße von der Quantenmechanik bestimmt als von den Lehren der Relativität. Einstein selbst bekannte, dass er sich in seiner wissenschaftlichen Laufbahn wohl zehnmal mehr mit den Quanten als mit dem Raum-Zeit-Kontinuum beschäftigt hat. Weitere spektakuläre Erfolge blieben dem Genie allerdings versagt. Seine Suche nach der Weltformel aus Gravitation und Elektromagnetismus scheiterte kläglich, musste schlicht schon deshalb versagen, weil ihm weder die schwache noch die starke Kernkraft bekannt waren, das heißt, bereits sein Ansatz war zu verengt. Sein Kampf gegen die neuen Protagonisten der Quantenphysik wie etwa Born, Pauli oder Heisenberg war vergeblich – er wurde immer wieder in allen Punkten widerlegt. Besonders zu schaffen machte ihm die von Heisenberg formulierte Unschärferelation.

Die Nichtbestimmbarkeit von Ort und Impuls eines Teilchens zur gleichen Zeit stieß auf seinen erbitterten Widerspruch, der in dem Ausspruch gipfelte: „Die Theorie liefert viel, aber dem Geheimnis des Alten bringt sie uns kaum näher. Jedenfalls bin ich überzeugt, dass der nicht würfelt“ (so in einem Brief an Max Born aus dem Jahr 1926). Journalisten, von Berufs wegen auf der Suche nach griffigen Formulierungen, machten flugs daraus: „Gott würfelt nicht“. Einsteins Haltung zur Quantenphysik findet sich knapp und verständlich dargestellt in “Einstein und die Quantentheorie”.

Die Affinitäten zwischen Religion und Physik

Vor allem Physiker legen eine Neigung an den Tag, sich zu Gott und Religion zu äußern, die auf den ersten Blick verwundert, da sie sich ja eher mit dem Rationalen dieser Welt als mit dem irrationalen Transzendenten beschäftigen. Ihre Feststellungen die Religion betreffend sind dazu meist in hohem Maße missverständlich. Sie führen dazu, dass Physiker nicht selten von den Religionen gleich welcher Couleur als „die Ihren“ vereinnahmt werden. Andere Wissenschaftler wie zum Beispiel Biologen entgehen solcher Inanspruchnahme durch klare Opposition. Der Mythos der Genesis ist schlicht nicht in Einklang zu bringen mit den Fakten der Evolutionslehre. Und solange die Theologie ihre aus dem damaligen Zeitgeist heraus geborenen Fabeln nicht als solche benennt, wird das auch so bleiben. Biblische Exegese ist in diesem Punkt allerdings schon erheblich weiter als fundamentalistische Interpretationen der Schriften durch Evangelikale oder Moslems. Sind Physiker etwa gläubiger als Biologen? Werden sie zu Recht als Zeugen für transzendentale Vorstellungen vereinnahmt?

Betrachtet man die Umstände der Zeugennahme genauer, so stellt man fest, dass es eher um ein Spiel mit Begriffen als um wahre Sachverhalte geht. Da werden die Dinge gedreht und gewendet, bis sie in die eigenen Vorgaben passen. So sagt der Kreationismus-Apologet Adnan Oktar (Harun Yahya) „[laut] Albert Einstein, der als bedeutendster Wissenschaftler des 20sten Jahrhundert gilt, „ist Wissenschaft ohne Religion lahm“, was soviel bedeutet wie, dass die Wissenschaft ohne die Führung der Religion nicht korrekt fortschreiten wird, sondern er [?] eine Verschwendung von Zeit darstellt, bis bestimmte Ergebnisse erzielt werden, und schlimmer noch, diese oftmals ergebnislos ist [?]“. Einstein befindet sich bei Adnan Oktar in einer langen Liste von Wissenschaftlern, deren angebliche Religiosität gegen die weitverbreitete Annahme spricht, alle Forscher seien materialistische Darwinisten und verdammenswerte Atheisten.

Da nicht sein kann, was nicht sein darf, wird alles ins Schema der eigenen religiösen Vorstellungen gepresst: „Der Quran zeigt der Wissenschaft den Weg“. Und: „Wissenschaft bietet eine Methode an, durch die das Universum und alles darin Enthaltene untersucht werden kann, um die Kunst in Gottes Schöpfung zu entdecken, und der Menschheit dadurch erkennbar zu machen“. Für Oktar ist klar, wenn ein Wissenschaftler das Wort „Gott“ oder „Religion“ in den Mund nimmt, dass er dann notwendigerweise darunter das gleiche verstehen müsse wie Oktar selbst. Jeder Physiker von Rang würde es sich wohl verbitten, als Auftragsforscher im Namen des Korans gekennzeichnet zu werden.

Doch was meinte Einstein nun wirklich, als er sagte, Wissenschaft ohne Religion sei lahm, oder als er „den Alten“ keinesfalls beim Würfelspiel sehen wollte? Wir dürfen mit einiger Sicherheit davon ausgehen, dass Einstein kein Moslem war, und dass er weit davon entfernt gewesen wäre, in das krude Weltbild eines Adnan Oktar zu passen. Über Einsteins religiöse Vorstellungen ist viel geschrieben und viel gerätselt worden. Dabei kann es gar nicht klarer ausgedrückt werden als er es selbst gesagt hat. Für ihn waren die Inhalte der drei abrahamitischen Religionen „kindischer Aberglaube“ und noch stärker in Abgrenzung der über ihn in dieser Frage herrschenden Vorurteile: „Es war natürlich eine Lüge, was Sie über meine religiösen Überzeugungen gelesen haben, eine Lüge, die systematisch wiederholt wird. Ich glaube nicht an einen persönlichen Gott und ich habe dies niemals geleugnet, sondern habe es deutlich ausgesprochen. Falls es in mir etwas gibt, das man religiös nennen könnte, so ist es eine unbegrenzte Bewunderung der Struktur der Welt, so weit sie unsere Wissenschaft enthüllen kann.”  Punkt. Klar gesagt.

Institutionalisierte Religionen, die ihren verängstigten Anhängern Riten abverlangen, um sie zu disziplinieren und vor der Hölle zu bewahren, waren Einstein ein Graus. Er unterschied klar in drei Gruppen: primitive „Furcht-Religionen“, so genannte „Moral-Religionen“ und seine eigene Kennzeichnung einer „kosmischen Religiosität“, die zu keiner Theologie, sondern zu Wissenschaft und Kunst führe. Die Missverständnisse waren ihm dabei recht egal: „Es schert mich einen Teufel, wenn die Pfaffen daraus Kapital schlagen. Dagegen ist kein Kraut gewachsen“.

Si comprehendis, non est deus

Ist es also pure Koketterie, wenn Physiker mit den Begriffen „Gott“ und „Religion“ zu spielen scheinen? Oder gibt es gar einen inneren Zusammenhang? Das Gemeinsame an Quantenphysik und Theologie ist, dass sie beide ein Realismusproblem haben.

Die Welt der Quanten entzieht sich anders als die Mechanik vollständig unserer sinnlichen Vorstellungskraft. Sie lässt sich hervorragend in der Sprache der Mathematik erfassen, doch sobald sich Physiker an eine Übersetzung der Erkenntnisse in die Sprache der makroskopischen Erfahrungswelt herantrauen, wird es unendlich schwierig. So geht es auch der wohl berühmtesten Übertragung mikroskopischer Vorgänge in die Alltagssprache: Schrödingers Katze, die gleichzeitig tot und lebendig ist. Um das Gedankenexperiment Schrödingers wirklich zu verstehen muss man sich – vertrackte Logik – in der Quantenphysik zumindest ein wenig auskennen.

Wir begegnen dem Problem der positiven Darstellung nicht wirklich begreifbar darstellbarer Phänomene. Und hier genau an dieser Stelle treffen sich moderne Physik und die klassischen Religionen. Die prinzipielle Unübersetzbarkeit quantenmechanischer Vorgänge hat ihren Widerpart in der affirmativen Theologie. Beide Seiten sind gezwungen, zu Bildern zu greifen, um verständlich zu erscheinen. Verstehen Sie die Unschärferelation in Relation zur Unmöglichkeit positiver Aussagen über Impuls und Ort? Verstehen Sie das Wesen Gottes in seiner Unbeschreibbarkeit als Wirkung für den Menschen?

Falsche Bilder schaffen dabei falsche Eindrücke. Sie führen bei „Gott“ im Zweifel zum gütigen Vater mit Rauschebart, in der Physik zur untoten Katze. Geholfen ist mit solchen Bildern niemandem. Im Gegenteil wird der Eindruck erweckt, ein Bild vermittele eine anerkannte Wahrheit über das Wesen der Dinge. Solche „positiven“ Darstellungen finden sich in allen Religionen, zum Beispiel die 99 Benennungen für „Allah“ im Koran, jede einzelne soll ein Wesensmerkmal dieses Wesens wiedergeben. Das führt im Zweifel zu der völlig falschen Vorstellung, „Gott“ sei tatsächlich so wie beschrieben. Doch kann genau so gut das jeweilige Gegenteil der Fall sein.

„Wenn Du meinst zu verstehen – ist es nicht Gott“, sagte bereits der Kirchenvater Augustin und begründete im christlichen Bereich das, was man unter „negativer Theologie“ versteht. Ein heutiger Protagonist dieser Gedankenrichtung ist der Theologe Andreas Benk: „Gott ist nicht gut und nicht gerecht, nicht vollkommen und nicht allmächtig, Gott ist nicht Vater und nicht Mutter, nicht Geist und nicht Person. Eine solche Feststellung ist für viele Christinnen und Christen verstörend – und doch ist es jüdische, christliche und muslimische Einsicht. Es geht nicht um eine esoterische Lehre und nicht um eine theologische Spitzfindigkeit. Es geht um die Unangemessenheit jeder Rede von Gott: Gott entzieht sich unvermeidlich all unseren Vorstellungen und all unseren Versuchen, ihn zu begreifen“.

Diesem eigentlich selbstverständlichen theologischen Ansatz entzieht sich aber die offizielle Kirche mit aller Macht. Bei einem Papst, der gemeinhin als „intellektuell“ angesehen ist, erstaunt dies ganz besonders. Doch statt das Unbegreifliche als solches zu benennen wie es die negative Theologie versucht, ergießt sich Benedikt XVI. gleich in seiner ersten Enzyklika „Deus caritas est“ (Gott ist die Liebe) von 2005 ins genaue Gegenteil. Diese selektive Wahrnehmung des Gottesbildes in der affirmativen Theologie mag zwar die eigenen Schäfchen beruhigen, für einen Unvoreingenommenen stellt es aber geradezu einen Anschlag auf die Intelligenz dar. „Deus caritas est“ gibt vor, etwas von Gott zu verstehen, dass so nicht existiert, und leicht konterkariert werden könnte mit dem Bild des eifersüchtigen und zornigen Jahwe, der ganz Sodom und Gomorrha wegen der Sünden einzelner vom Erdboden vertilgt inklusive aller unschuldigen Kinder. Caritas? Oder betrachten wir diesen persönlichen Gott (Einstein: „kindischer Aberglaube“), der angeblich in jeder Sekunde bei jedem Individuum anwesend ist, in seinen Werken und Gedanken.

Ist ein solches Kontrollmonstrum, schlimmer als Big Brother, überhaupt denkbar? Wenn an dieser Stelle der Atheismus auch ohne die geringsten Beimengungen von Agnostizismus ein klares Nein entgegensetzt, so hat er ohne Zweifel Recht, auch ohne selbst Religion zu sein. Bischof Walter Mixa – falls er denn diese Zeilen liest – kann sich beruhigt zurücklehnen: er muss sich keine Sorgen machen, dass jenes höhere Wesen ihn nach allem sonstigen auch noch dabei überwacht, ob er sich wenigstens beim Toilettengang gottgefällig den Hintern abwischt.

Konklusion

Physik und Religion machen einen entscheidenden Fehler, wenn sie versuchen, die Grenzen des Beschreibbaren formulatorisch zu überwinden. Es mutet an, als wollten sie ein altes Buch mit unsichtbarer Schrift (siehe Abb.) in eine moderne Sprache übersetzen. Sie werden dadurch nicht wie erhofft glaubwürdiger. Einstein hat dies gut erkannt, aber er gibt dem Unbeschreibbaren einen Namen: „Gott“. Und setzt also alles, was wir nicht wissen, vielleicht niemals wissen können, dem gleich, was auch die Religionen so bezeichnen. Das ist klug und gefährlich zugleich. Klug ist es, weil es kennzeichnet, dass wir gewisse Erfahrungen wie das eigentliche Wesen der Singularität des Urknalls wahrscheinlich niemals werden beschreiben können, ja, in diesem speziellen Fall nicht einmal in mathematische Formeln kleiden können (zu viele „Unendlich“).

Wir wissen nicht einmal, ob es wirklich der Urknall war, auf den Johannes-Paul II. 1992 so gerne aufgesprungen ist, oder ob es statt des Big Bang nicht eher einen sich wieder und wieder erneuernden Big Bounce gegeben hat, wie es etwa Bojowald mit seiner Schleifen-Quantengravitation (gequanteltes Raum-Zeit-Kontinuum) anspricht. Gefährlich ist es, weil diese Kennzeichnung, wie die Geschichte zeigt, eine Vereinnahmung durch die Offenbarungsreligionen mit ihrer dogmatischen und affirmativen Interpretationen des Wesens Gottes nicht hinreichend ausschließt.

Negative Theologie eines Augustinus und eines Andreas Benk könnte sich dagegen gut mit den Ansichten der Physiker treffen, dass bestimmte Dinge sich niemals werden formulieren oder mathematisch umschreiben lassen. Hier liegt ein wesentlicher Wert der „kosmischen Religiosität“ eines Einstein, dem sich auch der hartgesottenste Atheist nicht verschließen könnte, wenn er nicht in ein quasi-religiöses Dogmenschema verfallen möchte: er würde angesichts dieses „Scio nescio“ zu den letzten Fragen unweigerlich zum Agnostiker.




Quanteninformationstheorie II: Ein Kran für alle Fälle

Seth LloydZweiter Teil eines Essays von Jan Magnus Kurz, Mitglied der Gruppe Initiative Humanismus.  

Was wir nun bislang kennengelernt haben sind sowohl die Dynamik, als auch dieEnergetik der fruchtbaren Kooperation zwischen Gravitation und Quantenzufall. Im metaphorischen Sinne lässt sich der intrinsische Quantenzufall durchaus als Äquivalent zur darwinschen Variabilität interpretieren, während der Effekt der Naturkräfte eine ähnliche Rolle wie Selektion verkörpert.Um herauszufinden ob auch ein universeller Mechanismus existiert, der die Aufgabe der Mutation übernehmen könnte und wie dieser aussieht, müssen wir uns die oben geschilderte Entwicklung auf informationstheoretischer Grundlage ansehen, die es ermöglicht beide Aspekte gemeinsam zu beschreiben.

Bis Mitte des 20. Jahrhunderts ging man davon aus, dass sich komplexe Dinge gerade dadurch auszeichnen, dass sie sich in keiner Weise quantitativ messen lassen. Von Komplexität sprach man genau dann, wenn sich keinerlei Überblick in einer Sache bewahren ließ – zumindest bis der russisch-amerikanische Physiker Ray Solomonoff beschloss eine mathematische Theorie von Occam´s Razor zu entwickeln. Dem mittelalterlichen Philosophen William of Occam war daran gelegen im Rahmen der Wissenschaftstheorie stets die einfachste und müheloseste Erklärung eines Sachverhalts zum Erkenntnisgewinn vorzuziehen oder in anderen Worten: die Dinge nicht unnötig kompliziert zu machen.Dieses Rasiermesser zerschneidet quasi komplexe Erklärungen, indem einfacheren Beschreibungen a priori eine höhere Plausibilität eingeräumt wird. Für eine mathematische Formulierung verwendete Solomonoff den Begriff der algorithmischen Information. Der Informationsgehalt, respektive die Komplexität eines Objektes ist genau so groß, wie das kürzeste Programm, das dieses Objekt vollständig beschreibt (und damit erschafft). Unter allen zur Erstellung in Frage kommenden Programmen besitzt das kürzeste die größte Wahrscheinlichkeit für die Herstellung des Objektes. Was bedeutet das praktisch?

Dass die Komplexität der Welt kein reiner Zufall sein kann, wird seit Menschengedenken behauptet. Der französische Mathematiker Emile Borel hat dies 1909 mit einem imposanten Gedankenexperiment illustriert. Angenommen, Affen würden zufällig auf der Tastatur einer Schreibmaschine tippen: Wie lange bräuchten sie, um zufällig den „Hamlet" von William Shakespeare hervorzubringen? Die aktuelle Antwort ist ernüchternd: Selbst für die ersten 20 Buchstaben wären schon eine Trillion Affen nötig, die auf ebenso vielen Schreibmaschinen seit dem Urknall herumhacken. Die Wahrscheinlichkeit einer zufällig richtigen Zeichenfolge ist geringer als die von vier Lotto-Jackpot-Gewinnen in Folge.Zufällig kann „Hamlet" also nicht entstanden sein, dazu bedurfte es der Rechenleistung des Gehirnes eines Shakespeare, der freilich ebenfalls nicht rein zufällig im Universum entstanden ist. Die Kombination aus sehr kleinen Wahrscheinlichkeiten und dem begrenzten Alter und Ausmaß unseres Universums macht es unmöglich, dass die Ordnung und Struktur unseres Kosmos rein zufällig entstanden sind.

Aber was würde geschehen, wenn die Affen nicht auf eine Schreibmaschine tippen, sondern stattdessen Befehle in ein Computerprogramm eingeben? Der Unterschied zwischen Computer und Schreibmaschine liegt allein darin, dass erstere alle Eingaben ungefiltert übernimmt und auf Papier bringt, während ein Computerprogramm die eingegebenen Symbole aktiv interpretiert und verarbeitet. Trotz ihrer hinlänglich bekannten, beinahe unerschöpflichen Fähigkeiten sind Computer im informationstheoretischen Sinne sehr einfache Maschinen, welche all ihre Fähigkeiten der Informationsumwandlung aus einfachen Logikoperationen ihrer Schaltkreise schöpfen. Bei klassischen Computern sind das [AND],[OR],[NOT] und [COPY], bei Quantencomputern, zu denen im physikalischen Sinne auch unser Universum gehört – und genau das ist der springende Punkt bei diesen Ausführungen – noch eine Handvoll mehr. Alles was sie tun ist eingegebene Information nach simplen Regeln umzuformen und verändert auszugeben. Was passiert also wenn der Computer versucht die eingegebenen Informationen der Affen auszuführen? Meistens gar nichts, außer dem Aufleuchten einer Fehlermeldung nach dem Motto: Unsinn rein, Unsinn raus – aber eben nicht immer. Denn auch wenn das meiste genauso unbrauchbar ist wie der Kokolores aus der Schreibmaschine, so haben manche ganz kurze Eingabecodes nach der Verarbeitung ein interessantes Ergebnis. Das wichtige hierbei: dadurch, dass diese Programmbefehle sehr kurz und einfach sind, ist die Wahrscheinlichkeit ihrer Entstehung durch zufällige Eingabe nach Solomonoff entsprechend hoch. Beispielsweise bewegen schon wenige Zeilen Code den Computer dazu, alle Nachkommastellen von Pi zu berechnen. Ein anderes kurzes Programm befiehlt die Bildung atemberaubender Fraktale oder die Simulation des Standardmodells der Elementarteilchen, des Urknalls, oder chemischer Bindungen. Ein anderer Eingabebefehl beweist in der Ausführung alle mathematischen Theoreme (soweit eben möglich).

Wie sie an dieser Stelle längst erkannt haben werden, handelt es sich bei der Analogie der Affen um nichts anderes als den intrinsischen Quantenzufall selbst, dem alle Energie und Materie unterliegen. Die „Programmiersprache“ des kosmischen Computers (keine Schreibmaschine!) ist die Gesamtheit unserer fundamentalen Naturgesetze und der Quantencomputer, auf dem sie „installiert“ sind, ist natürlich das Universum selbst, welches im „ontologischen Keller der Realität“ (Planck-Zeit und Planck-Raum) einfache Quanten-Logik-Operationen durchführt. Lloyd und einige andere Physiker am MIT und dem Perimeter Institut Kanada, sowie beteiligter Institutionen entwickeln derzeit neben der technischen Umsetzung leistungsstarker Quantencomputer Theorien, wie sich aus Quanten-Logik-Operationen auf Planck-Ebene eine „Theorie für Alles“ systematisch herleiten und entwickeln lässt. Die Rechengeschwindigkeit des Kosmos ist mit 10122 Operationen pro Sekunde übrigens unermesslich groß, ebenso die Anzahl seiner Speicherbausteine, den Elementarteilchen mit 1092 Bit. Zum Vergleich rechneten alle Computer auf der Erde (ca. 1. Mrd. Stück) im Jahr 2007 nur mit einer Geschwindigkeit von 1032ops und haben bislang insgesamt lediglich 1021 Bit registriert. Sie verkörpern eben auch nur einen fast infinitesimal winzigen Teil des Kosmos, daher verwundert das sicher nicht. Ein (Quanten)-computer mit exakt der gleichen Rechenleistung und Speicherkapazität wie das Universum, müsste die gleiche Masse, Volumen, Energie und Information wie das Universum beinhalten und genauso alt sein. Bereits per Definition ist er damit das Universum selbst.

Der intrinsische Zufall versorgt das Universum mit Informationsinput in Form einzelner Bits durch Quantenfluktuationen und programmiert so die Struktur und Ordnung des Kosmos, wie die Position und Eigenschaften von Galaxienhaufen, Planeten, Molekülen und Mutationen in einerDNA-Base. Der Computer, in den die Eingabecodes aufgespielt werden ist das Universum selbst. Sein „Betriebssystem“, seine „Software“, sind die Naturgesetze. Einfache Regeln, die aus den Schaltkreisen des kosmischen Quantencomputers automatisch als emergente Eigenschaften hervorgehen. Programmiert durch Quanteneinfluss lässt Physik schließlich Chemie hervorgehen und irgendwann nach langer Zeit daraus wiederum Leben und Biologie.Programmiert durch Mutation und Rekombination tritt aus Leben eines Tages ein Shakespeare in die Welt und schafft nach Programmierung durch Erfahrung und Vorstellungsvermögen letztlich „Hamlet“. Der Unterschied zwischen Affen an der Schreibmaschine und Affen am Computer ist Bit für Bit, Quant für Quant alles in der Welt.Damit ist auch die Annahme eines intelligenten Schöpfers oder Programmierers überflüssig. Der Zufall genügt, denn er arbeitet nicht allein und überlässt erst recht nichts dem Zufall.

Jan Magnus Kurz,  23.07.2014

 

Quellenverzeichnis:

 




Quanteninformationstheorie I: Ein Kran für alle Fälle

Seth_LloydErster Teil eines Essays von Jan Magnus Kurz, Mitglied der Gruppe Initiative Humanismus.

Some kind of theory could in principle do for physics the same explanatory work as Darwinism does for biology. This [current] kind of explanation is superficially less satisfying than the biological version of Darwinism, because it makes heavier demands on luck. But the anthropic principle entitles us to postulate far more luck than our limited human intuition is comfortable with.We should not give up hope of a better crane arising in physics, something as powerful as Darwinism is for biology.

–Richard Dawkins

Sideways falling, more will be revealed my friend,

Don´t forget me I can´t hide it, come again get me exited.

–Red Hot Chili Peppers – Don´t Forget Me

Der folgende Text behandelt thematisch das hochaktuelle Forschungsgebiet der Quanteninformationstheorie mit Fokus auf die Entstehung komplexer Strukturen im Universum durch Mechanismen der Quanteninformationsverarbeitung. Inhaltlich konzentrieren sich die dargestellten Beschreibungen und Erklärungen stark an den Arbeiten und Werkenvon ProfessorSeth Lloyd, leitender Wissenschaftler des Research Laboratory of Electronics (RLE) und Direktor des Zentrums für Extreme Quantum Information Theory (xQIT) am MIT. Gegenwärtig beschäftigt sich der Entwickler derersten funktionsfähigen Anleitung zum Bau von Quantencomputern unter anderem mit einer Vereinheitlichung von Gravitation und Quantenmechanikdurch Quantensschaltkreise. Um den Rahmen dieses Artikels nicht ausufern zu lassen, beschränke ich mich nach dem deskriptiven ersten Teil des Textes im zweiten Part auf eine sehr oberflächliche Einführung des „Computational-Universe-Modells“, welches ausreichen sollte, um ein schlüssiges Fazit zu ziehen. Interessierten Lesern mit Vorbildung in Quantenphysik und besseren Englischkenntnissen sei darum ein Blick in die Quellmaterialien, insbesondere Lloyd´s eigenes Buch zum Thema sehr empfohlen.

 

Professor Richard Dawkins bezeichnet Darwins „Gefährliche Idee“, veröffentlicht im Jahre 1859 in Buchform mit dem Titel „On The Origin Of Species“ und ihre vielfältigen Verbesserungen in Form der synthetischen Evolutionstheorie, der Theorie der egoistischen Gene und Meme und der Abiogenese in seinem bekannten religionskritischen Werk „Der Gotteswahn“ (2006) sehr zu Recht als bewusstseinserweiternder Kranmechanismus zu Erklärung komplexen Lebens. Heute, im Jahre 2014, wissen wir besser als eh und je darüber Bescheid, auf welche Art und Weise sich das Leben auf unserem Blauen Punkt im All über Milliarden von Jahren hin entwickelt hat. Sei es von den zarten, chaotischen Anfängen der Selbstorganisation von Biomolekülen in den primordialen Ozeanen und Wassertümpeln bis zur komplexesten Struktur im erforschten Universum: dem menschlichen Gehirn. Wer dieses unvergleichlich elegante Konzept bestehend aus den Kernmerkmalen Variabilität, Drift, Mutation und Selektion einmal vollendet erfasst hat, dem entlocken naive eisenzeitliche Schöpfungsgeschichten 2000 Jahre alter, nahöstlicher Wüstenvölker bestenfalls ein mitleidiges Lächeln. Doch so umfassend und zuverlässig dieses Konzept bei allen selbstorganisierten Systemen funktioniert, einen vollständig universellen Charakter zur Erklärung der Welt besitzt die Evolutionstheorie leider nicht. Fernab der Biologie, Biochemie und Medizin ist bislang noch kein größerer Kran entdeckt worden, welcher innerhalb der Physik eine parallele, eventuell gar übergeordnete Rolle beim Verständnis des Kosmos spielen könnte und wir wissen nicht, wie all die Komplexität im Universum zustande kommt, die zudem sogar dem 2. HS der Thermodynamik, einem Naturgesetz, zuwiderzulaufen scheint  – zumindest galt diese Ansicht bis Anbeginn dieses Jahrtausends. Doch seither ist viel geschehen und der wissenschaftliche Fortschritt steht nicht still.

Man muss nicht unbedingt ein Quantenphysiker, Astronom oder Raumfahrtingenieur sein, um zu bemerken, dass das Universum ein sehr komplexes Gebilde ist. Es genügt vielmehr schon ein Blick aus dem Fenster: dort sieht man Bäume und Pflanzen, Vögel und Menschen, Autos, Bauwerke. Wirft man einen Blick in den Himmel so entdeckt man Wolkenformationen, Flugzeuge, eventuell je nach Witterung einen Regenbogen und darüber hinaus bei Nacht Sterne, Planeten, Nebel und Galaxien. Das Universum ist randvoll mit Vielfalt und Komplexität. Aber wie kommt das? Die enorme Komplexität des Kosmos mutet bizarr an, denn wir wissen gut Bescheid über seinen Ursprung.

Die Geschichte unseres Universums nahm vor 13,76 Milliarden Jahren ihren Anfang, indem sowohl Energie und Information, als damit auch Zeit und Raum selbst aus einem Zustand des absoluten Nichts, einem sogenannten virtuellen Quantenvakuum blitzartig in Existenz traten. Diese Existenz begann als winziger Punkt mit der Kantenlänge von 10-43 Metern (der Planck-Länge) als sogenannte Singularität, welche sich mit riesiger Geschwindigkeit ausbreitete und dabei abkühlte. Dieser Vorgang ähnelte einer Supernova Explosion und wird heute als Urknall bezeichnet. Bereits nach kurzer Zeit war unser Universum so stark angewachsen und abgekühlt, dass die Energie darin zu Materie kondensierte, zunehmend stark verklumpte und schließlich Elementarteilchen und Wasserstoffatome formte. Unter dem Einfluss der Gravitationskraft folgten später Galaxien, Sterne und Planeten,  auf mindestens einem der letzteren Selbstorganisation und Evolution: das Leben. So weit so gut, aber es gibt bei dieser kosmischen Entwicklung ein entscheidendes Problem: die Singularität, aus welcher der Kosmos entstand, war absolut uniform. Sie enthielt keinerlei Komplexität oder Unordnung, ihr Informationsgehalt war gleich Null. Gleiches gilt auch für das Taschenuniversum, das einige Planck-Zeiten später durch Inflation daraus entstand. Die Energie in diesem Universum war so regelmäßig verteilt, dass im Vergleich zu dieser Uniformität die höchste Erhebung der Erdoberfläche nicht einmal halb so groß wie ein Maulwurfshügel gewesen wäre. Dazu kommt der Umstand, dass die Gesetze der Physik ebenfalls extrem einfache Regeln darstellen. Die entscheidende Frage lautet daher: wie kann aus einem sehr einfachen Ausgangszustand und ebenso einfachen Naturgesetzen als Regelwerke für dessen Entwicklung nach Milliarden Jahren solch unendliche Komplexität entstehen, die wir überall beobachten? Nach unserem heutigen Verständnis ist es für ein Universum offenbar nicht sonderlich schwierig aus einem raum- und zeitlosen Vakuum spontan in Existenz zu treten und damit das Potential unsers Weltalls zu schaffen. Das große Rätsel war bislang eher, wie aus diesem homogenen Anfang mit simplen Regeln ein komplexes Gebilde entsteht. Sehen wir uns also an, welche Mechanismen unsere Welt kompliziert, interessant und damit erst lebenswert machen.

In Anlehnung an ein kapitalistisches Credo kann man behaupten, dass im Universum die Regel gilt: „Wer viel hat dem wird gegeben. Wer aber wenig hat, dem wird auch noch genommen, was er hat.“ Verantwortlich dafür ist eine der vier Naturkräfte, die Gravitation. Wie oben beschrieben ist sie es, die Materie dazu veranlasst sich zusammen zu ballen und das Universum allmählich verklumpen lässt. So entwickeln sich aus interstellaren Wasserstoffwolken langsam Zusammenballungen in dichten, heißen Zentren, die schließlich zu Galaxien heranreifen. Innerhalb derer bilden sich durch den gleichen Mechanismus zunächst Sterne und später aus schweren Elementen auch Planeten. Die Gravitationskraft mag es nicht, wenn die Dinge homogen verteilt sind, sondern verursacht gerne Chaos und Durcheinander. Winzige Ungleichheiten werden fast grenzenlos verstärkt. Dieser Mechanismus sorgt dafür, dass bereits aus kleinen Ungleichverteilungen von Energie und Materie mit der Zeit große Differenzen und Konzentrationsgefälle erwachsen. Eine minimale Abweichung vom Mittelwert, die Verschiebung des einzelnen Elektrons im Wasserstoffatom eines Nebels für den Bruchteil einer Sekunde, z.B. durch die Kollision mit einem Lichtquant, kann aus einer Staubwolke eine Galaxis so groß und Komplex wie unsere Milchstraße entstehen lassen – mit ihrem gesamten Inhalt, einschließlich uns selbst. Es ist das gleiche Prinzip wie bei dem berühmten „Butterfly Effect“, bei dem der Flügelschlag eines Schmetterlings in der Gegenwart irgendwo anders auf der Welt später im Sommer durch Chaosmultiplikation innerhalb der Atmosphäre einen Tornado verursacht.

Dennoch gilt für die Gravitation, dass ihr Einfluss nicht die Ursache für eine Energie- oder Materiefluktuation darstellt, sondern erst in der Folge davon Regie führt. Was uns fehlt ist ein Initialzünder, der es von sich aus ermöglicht, ganz ohne Zutun der fundamentalen Naturkräfte Dichteunterschiede in Materie und Energie entstehen zu lassen, damit Gravitation das Ruder übernehmen kann. Diesen Mechanismus gibt es. Bekannt ist er seit den 20er Jahren des vergangenen Jahrhunderts, sein Name: Quantenmechanik. Die Quantentheorie ist die beste Beschreibung der Natur, welche die Wissenschaft jemals hervorgebracht hat. Kein anderer Funktionsmechanismus kann ihr an Zuverlässigkeit und Präzision das Wasser reichen. Sie beschreibt wie sich alle Materie und Energie im Kosmos auf unterster, fundamentaler Ebene verhält. In den Worten des britischen Physikers Paul Davies ausgedrückt erklärt sie das Verhalten des „ontologischen Kellers der Realität“. Sie ist universell gültig, unabhängig von der Größe der beschriebenen Strukturen. Auf kleiner Ebene erklärt sie die Eigenschaften und das Verhalten von Materie-Elementarteilchen und den Austauschteilchen von dreien der 4 Naturkräfte (d.h. außer die Gravitation). Auf etwas größerer Skala beschreibt Quantenmechanik die Existenz von Atomen, Molekülen und Organismen wie sie und mich und auf höchster Ebene schließlich Sterne, Planeten, Galaxien und das gesamte Universum. Die Gesetze der Quantenmechanik sind verantwortlich für das Hervorgehen von Details und Strukturen im Kosmos. Quantenmechanik erwirkt im Zusammenspiel mit der Gravitationskraft die Entstehung von  Komplexität im Universum aufgrund ihrer intrinsisch zufälligen Natur. So kontraintuitiv es auch wirken mag: die Quantennatur des Universums erwirkt die Entstehung von Struktur und Komplexität im Universum, weil sie inhärent unbestimmt ist. Das frühe Universum war nach seiner Entstehung uniform, die Energie überall gleich verteilt. Angriffspunkte für die Entwicklung von Chaos und Unordnung durch Gravitationseinfluss bestanden nicht – vorerst zumindest. Denn die Energiedichte war letztlich nicht exakt hundertprozentig gleich, denn das konnte sie dank der Quantennatur der Welt gar nicht sein. In der Quantentheorie haben Quantitäten wie Ort, Geschwindigkeit und Energiedichte keine exakten Werte, sie sind immer in Bewegung und fluktuieren. Man kann einer Eigenschaft zwar Wahrscheinlichkeiten zuordnen, beispielsweise die Position eines Elementarteilchens zu einem bestimmten Zeitpunkt ungefähr bestimmen, aber absolute Gewissheit gibt es für diese Angaben nicht. Denn ein Elementarteilchen ist immer an vielen Orten zugleich und das mit unterschiedlichen Geschwindigkeiten (bekannt als Welle-Teilchen-Dualismus). Diese Eigenschaft legten auch die Photonen an den Tag, aus denen das frühe Universum ausschließlich bestand. Zwar waren sie absolut gleichmäßig verteilt, doch schon nach kurzer Zeit führten Fluktuationen dazu, dass zwei benachbart umhergeisternde, über mehrere Positionen „verschmierte“ Lichtquanten zufällig miteinander kollidierten und wechselwirkten. Und mehr brauchte es nicht, damit die Gravitation an diesem Zentrum ansetzen konnte. Natürlich wiederholen sich solche Vorgänge unzählig oft, nicht nur in dieser Frühphase, sondern zu jedem Zeitpunkt während der Entwicklung unseres Kosmos bis in unsere Gegenwart hinein. Jede Galaxis, jeder Stern und Planet verdankt seine Masse und Position, seine gesamte Existenz solchen Quanteninteraktionen in grauer Vorzeit. Jeder Wurf des Quantenwürfels injiziert ein paar mehr Details in unsere Welt und indem sie durch die Naturkräfte, allen voran der Gravitation akkumuliert werden, bilden sie die Samen für die Vielfalt im Universum. Jeder Baum, jeder Ast, jedes Blatt, jede Zelle und der Strang von DNA darin verdankt seine hochkomplexe Form einem Wurf des Quantenwürfels in ferner Vergangenheit. Das Spielen um Geld mag verheerend sein, aber das Würfeln mit Quanten ist essentiell.       

_____________________________________    

Der zweite Teil (mit umfassenden Literaturangaben) wird zeitnah hier zu lesen sein.




Die Neuentdeckung des Fermi-Paradoxons

Essay von Jan Magnus Kurz (Initiative Humanismus)

Wir schreiben das Jahr 1950. Irgendwo, inmitten der Einöde New Mexicos der Vereinigten Staaten von Amerika, sitzen 4 Physiker vergnügt in der Kantine des Los Alamos National Laboratory. Ihr Mittagessen verkommt rasch zur Nebensache, während die vier Gentlemen aufgeregt über angebliche UFO-Beobachtungen, einen New-York-Times Cartoon und die technischen Chancen für überlichtschnelle Raumschiffantriebe diskutieren. Zumindest bei letzterem Thema kommen die Gesprächspartner darin überein, dass die technische Umsetzung in den nächsten Jahren wohl eher unwahrscheinlich sein dürfte. Man widmet sich wieder den Speisen. Einige Minuten des Essens und Schweigens später wird die Stille jedoch jäh durchbrochen, als der älteste der Wissenschaftler den Kopf hebt, über seinen Teller in den Raum blickt und laut in die Runde fragt: „Where is everybody? (dt.: Wo sind denn alle?)“ Die Herren wissen augenblicklich, was mit dieser kontextfreien Frage gemeint ist und brechen in herzhaftes Gelächter aus.

Der Mann, der die -gleich nach dem Sinn des Lebens- womöglich außergewöhnlichste Frage der Menschheitsgeschichte artikulierte, war niemand geringeres, als der Nobelpreisträger Enrico Fermi; gemeinsam mit Leo Szilard Entwickler des weltweit ersten funktionsfähigen Kernreaktors während des Manhattan-Projekts.

Seine prägnante Frage ging dank Verbreitung durch Carl Sagan seit Mitte der Siebziger als sogenanntes Fermi-Paradoxon in die Geschichte ein. Dieses Paradoxon hinterfragt die Wahrscheinlichkeit nach dem Auftreten von außerirdischem, intelligentem Leben in unserer Galaxis. Anders gesprochen lautet die Frage: „Sind wir Menschen die einzige fortschrittliche Zivilisation in unserer Milchstraße? Und falls ja, warum ist dem so?“

In diesem Artikel möchte ich genau diese Frage unter Berücksichtigung gegenwärtiger Kenntnisse und Extrapolationen insbesondere unter Anwendung der Informationstheorie aufklären.

Damit ein Paradoxon seinen (schein-)widersprüchlichen Charakter ausspielen kann, müssen die zuvor gesetzten Prämissen immer zunächst als wahr anerkannt werden. Die Basispunkte des Fermi-Hart-Paradoxons sind dabei folgende:

  • Unsere Sonne ist ein weitgehend gewöhnlicher Stern, von dessen Sorte es Milliarden weitere in der Galaxis gibt.
  • Ein Bruchteil dieser Sterne verfügt über Planeten, welche der Erde in ihren physikalischen Eigenschaften ähneln und sich in der habitablen Zone befinden.
  • Die Entstehung von biologischem Leben ist im Universum nicht ungewöhnlich, sondern erfolgt unter passenden lokalen Bedingungen durch den Einfluss der Naturgesetze, insbesondere des 2. Hauptsatzes der Thermodynamik und der Gravitationskraft im Rahmen der universellen Evolution quasi zwangsläufig.
  • Zumindest auf einem Bruchteil biotisch belebter Planeten entwickelt mindestens eine Spezies durch biologische Evolution eine hinreichend hohe Intelligenz, um schließlich technologische Entwicklung zu betreiben, welche irgendwann in stellarer Kommunikation und Raumfahrt mündet.
  • Auch ohne eventuelle überlichtschnelle oder lichtschnelle Fortbewegung ist eine vollständige Erkundung der Galaxis beispielsweise durch Neumann-Sonden oder Stasis-Raumschiffe denkbar.
  • Eine Expansion über das eigene Sternensystem hinaus bleibt trotz einfacherer hypothetischer Verlockungen wie beispielsweise der Existenz innerhalb virtueller Welten bereits aus Gründen der Energieversorgung recht wahrscheinlich.

Akzeptiert man nun diese Forderungen, was in Einklang mit bislang sämtlichen naturwissenschaftlichen Beobachtungen und Experimenten kaum ein Problem darstellt, so ergibt sich angesichts der räumlichen und zeitlichen Ausmaße der Galaxis/des Universums das Rätsel, dass demnach zwar viele hochentwickelte Zivilisationen existieren sollten, aber unsere bisherigen Beobachtungen und Untersuchungen beispielsweise im Rahmen der SETI-Projektes keinerlei Hinweise auf das Vorhandensein außerirdischen Lebens liefern.

Zur Lösung dieses Rätsels gibt es heute eine Mehrzahl an verbreiteten Argumenten. Die einfachste Antwort, bekannt als Argument der ungewöhnlichen Erde, verneint die Existenz von technisch hoch entwickelten Zivilisationen generell. Die Existenz unseres Planeten mit lebensfreundlichen Bedingungen sei demnach statistisch derart ungewöhnlich, dass es in der Galaxis keine weiteren erdähnlichen Planeten gäbe. Diese Schlussfolgerung ergibt sich teilweise aus dem Anthropischen Prinzip und dem Kohlenstoffchauvinismus. Ein weiterer Grund für den starken Zuspruch dieses schwachen Arguments sind zudem religiöse Schöpfungsmythen und sonstige ideologische Dogmen. Spätestens seit der jüngsten Auswertung des Kepler-Teleskops durch die NASA ist bekannt, dass im Durchschnitt fast jeder Stern der Milchstraße über mindestens einen Planeten als Trabanten verfügt. Unter den derzeit ca. 2000 bekannten extrasolaren Planeten befinden sich bereits mehrere, welche ihren Heimatstern in der habitablen Zone umkreisen. Zukünftige Beobachtungen werden deutlich zeigen, dass die Erde in ihrer hochspezifischen Form sicher ein seltener, aber kein einzigartiger Planet ist. Dies ist bereits angesichts der Elementverteilung im Kosmos und der großen Anzahl Planeten sehr unwahrscheinlich. Eigentlich ist die seltene Erde nicht einmal ein formelllegitimes Argument bezüglich der Frage, da bereits die Grundannahmen negiert werden.

Das nächste beliebte Argument genoss besonders während des Ost-West-Konfliktes eine hohe Plausibilität. Es ist die Hypothese der Selbstzerstörung. Carl Sagan und Frank Drake gingen im letzten Jahrhundert davon aus, dass die Wahrscheinlichkeit der Vernichtung einer Zivilisation schon kurze Zeit nach Entwicklung der Radiokommunikation sehr groß sei. Anlass zu dieser Idee gab die zunehmende Gefahr eines globalen Atomkrieges im Zuge des US-Sowjet Rüstungswettlaufs, welche eine Weile die Existenz unserer eigenen Spezies bedrohte. Obwohl der technologische Fortschritt auch in Zukunft das Potential zur Selbstzerstörung mit sich bringt, so lässt sich dennoch beobachten, dass die Menschheit in sozialer Hinsicht dahingehend Fortschritte erzielt, ihre Existenzchancen auch in Zukunft eher zu verbessern, als zu verringern (nicht zuletzt dank globaler aufklärerisch/humanistischer Erfolge). Mit zunehmender Existenzdauer erhöht sich damit insgesamt dank kultureller und ethischer Weiterentwicklung die Wahrscheinlichkeit für zukünftigen Selbsterhalt. Selbst wenn sich manchmal eine außerirdische Zivilisation selbst zerstören sollte, so ist es unwahrscheinlich, dass jede Gesellschaft besonders nach kurzer Zeit so enden würde. Ein eigener Totalgenozid ist spätestens ab einer kolonialen Aufteilung auf mehrere Planeten fast ausgeschlossen. So lässt sich das Paradoxon nur wenig plausibel erklären.

Eventuell ist die Milchstraße bereits vollständig erkundet oder gar besiedelt. Die uns umgebenden raumfahrenden Gesellschaften haben sich aber in einem Konsens darauf geeinigt, nicht mit geringer entwickelten Spezies in Kontakt zu treten, bis diese eine bestimmte Entwicklungsgrenze überschritten haben. Sie schotten ihre eigene Kommunikation willentlich vor uns ab. In Anlehnung an Gene Roddenberry ist dies das Argument der Nichteinmischung oder „Obersten Direktive“. Angesichts des Umstandes, dass sich alle raumfahrenden Spezies der Umgebung auf eine Kontaktvermeidung einigen müssten, fällt es schwer zu glauben, dass alle die gleiche Entscheidung treffen würden. Die kulturellen Differenzen zwischen verschiedenen Spezies dürften so groß sein, dass eine solche Abmachung nicht trivial ist. Damit büßt dieses Argument an Plausibilität ein; es erinnert in seiner Darlegung ohnehin an die Postulierung unsichtbarer Ersatzgötter.

Der nächste Einwurf zum Fermi-Paradoxon ist mehr verschwörerischer Natur. Er besagt, dass eine Kontaktaufnahme längst erfolgt ist und unsere Regierungen die Entdeckung geheim halten. Diese Möglichkeit darf man getrost als grotesken Unsinn abtun. Eine so epochale Neuigkeit ließe sich nicht auf Dauer geheim halten. Insbesondere in Zeiten einer globalen Infonetzstruktur wäre auch das kleinste ernsthafte Indiz für einen solchen Fall in kürzester Zeit viral. Selbst die jüngsten Geheimdienstoffenbarungen von Manning und Snowden haben keine Alien-Neuigkeiten aus Area 51 oder dem LLNL hervorgebracht, was der ultimative Beweis gegen diese Hypothese sein dürfte.

Zuletzt wird manchmal angeführt, dass technisch weit entwickelte Spezies eventuell keine Kommunikation durch elektromagnetische Strahlung betreiben, weil innerhalb dieses Entwicklungsstadiums bereits eine Nachfolgetechnologie dafür bereit steht. Eine andere Möglichkeit wäre, dass die Nachrichten zu stark komprimiert sind, um sie von der kosmischen Hintergrundstrahlung zu unterscheiden. Auch hier gilt die Frage: wie wahrscheinlich ist, dass mehrere Zivilisationen alle zu dem gleichen Schluss kommen, unentdeckt bleiben zu wollen oder auf Basis gleicher Technologien zu kommunizieren? Je höher die Gesamtzahl anderer Gesellschaften in der Galaxis, desto geringer die Erklärungskraft dieses Arguments. Auch auf Erden gilt: moderne Technologien schwächen den Einsatz veralteter Methoden stark ab, ersetzen ihn aber selten vollständig, da immer einige Nutzungsnischen bleiben.

Es zeigt sich, dass die populären Erklärungsversuche keineswegs als gute Argumente zur Lösung des Paradoxons dienen können. Zwar existieren noch weitere Abwandlungen dieser fünf Hauptannahmen, welche meist spekulativer soziologischer Natur sind, auch statistische Argumente gibt es des Öfteren, befriedigend und angesichts der Datenlage vollendet schlüssig sind sie, wie wir gesehen haben, nicht.

Wie lässt sich also eine befriedigende Antwort auf dieses Rätsel finden, die zumindest bei gegenwärtigem Kenntnisstand rational nachvollziehbar ist und auf einer falsifizierbaren Basis aufbaut? Um die Antwort darauf zu finden, müssen wir zunächst etwas weiter ausholen und kurz die Hauptannahmedieses Modells betrachten. Hierbei handelt es sich um ein informationstheoretisches Konzept entwickelt in den 90er Jahren durch den einflussreichen amerikanischen Ingenieur, Futuristen und Technologiemagnaten Dr. Raymond Kurzweil, welches er in seinem Werk „The Singularity Is Near“ detailliert der Öffentlichkeit beschreibt. Basierend auf vorhergehenden Studien u.a. von Carl Sagan, Vernor Vinge und unzähligen weiteren Analytikern entwickelte er ein mathematisches Modell namens "Law Of Accelerating Returns", quasi eine informationstheoretische Verallgemeinerung von Moore´s Law aufbauend auf verschiedenen Paradigmenwechseln seit Anbeginn der Menschheit. Das mathematische Ergebnis dieser Betrachtung ist eine Exponentialfunktion, welche die zeitliche Evolution informationsbasierter Prozesse beschreibt: W = exp(e^t); also eine zeitlich doppelt exponentielle e-Funktion.

Gemäß diesem Graphen haben wir das Knie der Kurve heute bereits überschritten. Laut diesem Modell (falls es bis dahin noch Gültigkeit besitzen sollte) wird ungefähr in den Jahren 2045 – 2050 ein besonders steiler Anstieg dieser Funktion zu erwarten sein. Dies wird in Anlehnung an die Physik oft als Singularität bezeichnet, ab welcher der technologische Fortschritt so schnell von statten geht, dass er sich durch einfache Beobachtung im heutigen Stil nur noch schwer mitverfolgen lässt. Selbst wenn Kurzweils mathematisches Modell trotz seiner bisherigen praktischen Erfolge nicht vollständig korrekt sein sollte, so lässt sich ein exponentieller Leistungsanstieg sämtlicher informationsverarbeitender Prozesse, einschließlich des globalen Energiebedarfs als deren Grundlage nicht übersehen. Je flacher der Graph, desto länger sind somit die hier geschilderten Zeiträume. Der prinzipielle Verlauf ändert sich jedoch nicht.

Auf Grundlage dessen geht Kurzweil davon aus, dass jede Zivilisation, die auf dem technischen Stand ist Radiowellen zu versenden, innerhalb der nächsten 200 – 300 Jahre zu einer Typ II Zivilisation (nach Kardaschow) wird, welche die gesamte Energie ihres Sternensystems gewinnt und dieses kolonialisiert hat (konservativere Daten sprechen hier von bis zu 2200 Jahren, der präzise Wert ist aber unerheblich). Angesichts des Alters des Universums, der prognostizierten Anzahl Planeten und der relativ kurzen Entwicklungszeit intelligenter Lebewesen müsste es sehr viele solcher Zivilisationen geben, die uns weit voraus sind, dennoch haben wir nicht einmal in unserer Galaxis einen Hinweis auf die Existenz einer solchen. Sollte solch eine Zivilisation in der Milchstraße existieren, so hätte sie in recht kurzer Zeit (bis 7500 Jahre, konservativ) die Galaxis als Typ III Zivilisation kolonialisiert oder zumindest erforscht und kartographiert. Das ist ganz offenbar nicht der Fall. Der plausibelste Grund dafür (abseits der klassischen Erklärungsversuche) ist die Annahme, dass eine so hoch entwickelte Spezies noch nicht existiert. Ray Kurzweil geht darum davon aus, dass es zwar viele Bewohnte Planeten in der Galaxis gibt, aber keine Spezies davon bisher den Entwicklungsgrad der Menschheit erreicht hat und wir darum der galaktische Gipfel der biologischen Evolution seien. Ich halte diesen Rückschluss für überzogen und bin lieber vorsichtiger, aber es wäre realistisch, dass die fortschrittlichste Spezies zumindest im nähren galaktischen Sektor uns nicht um mehr als 200 – 300 Jahre technologisch voraus sein kann, da wir ihre Emissionen sonst wohl durch SETI oder anderweitig entdeckt hätten. Die Vorstellung, wir gehörten metaphorisch zu den Top 10 der entwickelten Zivilisationen der Milchstraße halte ich für akzeptabel und angesichts der derzeitigen Kenntnislage für hinreichend theoretisch begründet. Zugegebenermaßen kann man glatt zum Zyniker werden, wenn man den Fernseher einschaltet oder in die Zeitung sieht, den gegenwärtigen Zustand und die Geschichte der Menschheit betrachtet und danach behauptet, wir seien im galaktischen Maßstab hochzivilisiert, aber an dieser Stelle wären wir bereits bei Douglas Adams und seiner eindringlichen Warnung vor frühzeitiger Resignation angesichts vermeintlicher Absurdität angelangt.

Sofern man sich aber bereit erklärt dieser Betrachtung mit dem mangels besserer Alternativen angemessenen Grad an Akzeptanz zu begegnen, wird man sich in neuem Maße der Bedeutung und Verantwortung der eigenen Zivilisation unseres „Pale Blue Dots“ auch und insbesondere in stellarem Maßstab bewusst. Vermutlich werden wir bereits innerhalb des nächsten Jahrzehnts dank besserer orbitaler Beobachtungs- und Analysemethoden auf zig tausende weitere Planeten stoßen und unter diesen im Rahmen der Möglichkeiten erste Hinweise auf extraterrestrisches Leben erhalten. Diese Vorstellung sollte uns darum nicht abschrecken oder gar an den eigenen gegenwärtigen Problemen verzweifeln lassen, sondern uns im Gegenteil ermuntern, den Widrigkeiten des Lebens vehement zu trotzen und unsere Lebensumstände weiter zu verbessern. Sollte sich in näherer Zukunft nämlich tatsächlich abzeichnen, dass der Menschheit eine technische und kulturelle Vorreiterrolle zumindest in einem winzigen Winkel des Universums beschieden ist, so wäre es heute unverzeihlich, unser großes Entwicklungspotential als Homo Sapiens durch religiöse und ideologische Dogmen, Anti-Intellektualismus und Technologiefeindlichkeit, sowie rückständige und irrationale Weltanschauungen zu gefährden. Evolutionärer Humanismus und utilitaristische Ethik geben uns die Leitfäden für die Zukunft an die Hand. Nutzen wir sie als Chance und Werkzeug, sprichwörtlich nach den Sternen zu greifen. Biologisch, technisch, kulturell – menschlich.

In diesem Sinne,

A still more glorious dawn awaits, not a sunrise, but a galaxy-rise–Carl Edward Sagan (1980)

 

Jan Magnus Kurz,  19.06.2014

 

Quellmaterial:

 

 




Das Gottesteilchen

Typischerweise bezieht sich Angst immer auf Zukünftiges. Auch Religionen profitieren von dieser Angst, Albert Einstein sprach von „Furcht-Religionen”. Die Religion bietet im Anschluss daran aber auch gleich die Beruhigung mit: „Der Herr ist mein Hirte, mir wird nichts mangeln“ (Psalm 23). Jenes höhere Wesen, dem Menschen sich anvertrauen, wird sie schon sicher durch alle Gefährdungen des Lebens führen und darüber hinaus nach dem Lebensende in den ewigen Frieden seines Himmelreichs aufnehmen – für viele eine entsetzlich langweilige Vorstellung. Dieses Grundprinzip eint alle großen Weltreligionen. Kann man aber annehmen, dass solcher Glaube an die übersinnliche Fügung der Weltgeschicke und der individuellen Prädestination alle Zukunftsängste längst ausgerottet hat? Weit gefehlt, denn nur die Typologie der Ängste und nicht die Angst als solche war und ist in der Menschheitsgeschichte einem fortwährenden Wandel unterworfen.

Angst kann seltsame Blüten treiben. Sehr beispielhaft und in seiner grotesken Skurrilität kaum noch zu überbieten zeigt sich aktuelle Zukunftsangst in einem Prozess, als dessen Ergebnis es dem CERN (Centre Européen de la Recherche Nucléaire) in Genf verboten werden sollte, den LHC (Large Hadron Collider) in Betrieb zu nehmen. Es könnten dort „Schwarze Löcher“ erzeugt werden, die in der Lage seien, die komplette Erde aufzusaugen und zu vernichten. Der Fall ging bis zum Verfassungsgericht und wurde schließlich abgewiesen. Waren es beim nackten Affen noch die durchaus nachvollziehbaren existentiellen Ängste vor wilden Tieren oder feindlichen Stammeshorden, so hat sich die Angst spätestens seit Darwin in eine nebulöse Beklemmung vor den Erkenntnissen von Wissenschaft und Fortschritt gewandelt. Diese unbestimmte, wenig zielgerichtete Angst scheint dabei vornehmlich auch ein sehr deutsches Phänomen zu sein, wie die Entlehnung ins Englische als „German Angst“ belegt.

Die Angst um das körperliche Wohlergehen ist dabei der Angst vor dem Umdenkens-Müssen gewichen. An dieser Stelle erweisen sich nun gerade diejenigen Institutionen, die die Angst nach eigener Aussage nehmen wollen, die Religionen, als die größten Förderer der Angst vor dem Umdenken. Jede neue Erkenntnis birgt ja die Gefahr, dass das komplette Gedankengebäude der vor Jahrhunderten erdachten Religionen ins Wanken gerät oder gar fällt. Daraus erklärt sich in weiten Teilen die Wissenschaftsfeindlichkeit des mittelalterlichen Katholizismus oder des heutigen Islam. Der Katholizismus hat in diesem Punkte teilweise eingelenkt. So erkennt zumindest der Vatikan mutig selbst Evolution und Urknalltheorie seit 1992 an; „Aber bitte nicht darüber hinaus gehen“ sagte Johannes Paul II zum Physiker Stephen Hawking. Eine späte Einsicht, aber immerhin. Sonst würden Menschen vielleicht noch immer Angst haben, auf unserer platten Erde herum zu trapsen und eines Tages an ihrem Rand ins Nichts zu fallen. Die von Fortschrittsphobie gelenkte Antwort des Islam ist klar:  Hier hat noch kein Wandel stattgefunden.

Von der Groteske zu den Fakten

Vielleicht mindert es manche Ängste, wenn man etwas genauer weiß, was „die da am CERN“ aus den Milliarden an Steuergeldern eigentlich machen. Legen sie wirklich die Zündschnur an unsere Existenz? Oder versuchen sie, getreu dem wissenschaftlichen Ethos, Erkenntnisse für die Menschheit zu gewinnen? Erkenntnisse, deren philosophische Tragweite heute noch niemandem, auch den beteiligten Physikern nicht, klar ist? Es lohnt sich, einen unvoreingenommenen Blick auf diese Forschungen zu werfen. Dieser Artikel befolgt dabei den weisen Ratschluss Stephen Hawkings aus „Eine kurze Geschichte der Zeit“, dass pro eingefügte mathematische Formel sich die Leserschaft jeweils halbiert. Hawking lässt nur die hinlänglich bekannte Einsteinsche Formel E=mc² zur Beschreibung der Masse-Energie-Relation im Raum-Zeit-Kontinuum als leserneutral durchgehen. Also halten wir uns daran.

Zwei grundsätzliche Probleme der heutigen Physik lassen sich konstatieren: der Makrokosmos gilt trotz einiger Zweifel nach wie vor durch Einsteins Relativitätstheorie  hinreichend beschrieben. Für den Mikrokosmos haben wir mit der Quantentheorie einen hervorragenden Einstieg gewonnen (vor allem dank Heisenberg). An zwei Seiten hakt es noch: bis heute gibt es keine fundierte quantenmechanische Beschreibung der Gravitation, wir warten also immer noch auf die Grosse Vereinigungstheorie (Grand Unified Theory) zwischen Quantenmechanik und Relativitätstheorie. Andererseits waren die bisher applizierten Energien von Teilchenbeschleunigern viel zu gering, um im Mikrokosmos so weit vorzudringen, dass wir die Entstehungsgeschichte unseres Alls seit dem Urknall auch nur annähernd fundiert verstehen.

Seit Beginn der Menschheit möchten wir wissen, „was die Welt im Innersten zusammenhält“. Dazu stellen Wissenschaftler Theorien (Modelle) auf, die mathematisch formuliert und überprüft werden und die schließlich im Experiment ihre Stichhaltigkeit beweisen müssen. Lässt sich die Theorie nicht experimentell nachweisen, wird sie verworfen und anhand neuer Erkenntnisse durch eine wahrscheinlichere Theorie ersetzt. Anders als bei den „Religionswissenschaften“ (allein schon das Wort ist für Humanisten ein Widerspruch in sich) wird selbst bei einer gut fundierten These daher auch nie behauptet, der Weisheit letzten Schluss erreicht zu haben.

Zwischen einer Hypothese und Theorie liegen Welten

Man bleibt seriöserweise immer offen für neue Erkenntnisse, sonst wäre Fortschritt nicht möglich. Die Häme religiöser Fanatiker sobald eine „Lücke“ in einer Theorie auftaucht, lässt einen Physiker oder Evolutionsbiologen deshalb auch relativ kalt, denn er weiß, dass sie irgendwann wissenschaftlich überzeugend geschlossen wird. Von Kreationisten wird „Evolutionstheorie“ dabei gern abwertend eingesetzt, so als ob es sich dabei um eine unbewiesene „Hypothese“ handelte, für die keine Beweise vorliegen. Dass ihre eigene „göttliche Wahrheit“ sehr viel eher hypothetischen Charakter hat, wird ihnen nicht bewusst. Dieser sprachlichen Verwirrung zwischen „Hypothese“ und „Theorie“ sollte man nicht auf den Leim gehen.

Es ist nun nicht so, dass wir nicht längst über das griechische Unteilbare (atomos) hinausgekommen wären. Eine ganze neue Welt der Quarks in allen seinen Variationen wie „up“ und „down“ hat sich uns geöffnet, unzählige Teilchen und Anti-Teilchen wurden entdeckt, in der Theorie gefordert und im Experiment nachgewiesen – soweit es die eingesetzten Energien der bisherigen Teilchenbeschleuniger zuließen. Das Prinzip eines Teilchenbeschleunigers ist dabei theoretisch simpel.

Man schieße zwei Teilchen mit hoher Energie aufeinander, lasse sie also kollidieren, und schließe aus den Spuren der entstandenen Bruchstücke dieser Kollision auf die Masse und Natur je nach Winkel, in dem die Bruchteile davoneilen (je größer die Masse desto kleiner der Ablenkungswinkel). Die für das Aufeinanderprallen eingesetzte Energie wird in der Kernphysik in eV (Elektronvolt) gemessen. Ein eV entspricht dabei der kinetischen Energie, die ein Elektron oder ein anderes einfach geladenes Teilchen aufnimmt, wenn es im Vakuum eine Spannungsdifferenz von ein Volt durcheilt. Bisherige Beschleuniger arbeiteten mit Spannungen im Bereich von Milliarden Volt, das LHC hat bei den letzten Versuchen 3,5 Billionen Volt erreicht, mithin eine kinetische Energie von 3,5 Teraelektronvolt  (TeV) erzeugt, was sukzessive auf 7 TeV gesteigert werden soll.

Die Versuchsanordnung sieht dabei zwei gegenläufige Strahlen schwerer Teilchen (=Hadronen) vor, die auf fast Lichtgeschwindigkeit beschleunigt werden, bis sie in der Auswertungseinheit (die größte ist ATLAS, neben anderen, auf die hier nicht näher eingegangen werden kann) zum Zusammenprall gebracht werden. Die Aufprallenergie ist also doppelt so groß wie die Energie des Einzelstrahls, mithin 7 TeV, zukünftig bis zu 14 TeV. Mit diesen Energien kann sich die Physik bis auf eine Nanosekunde an die Verhältnisse beim Urknall herantasten. Daher wird die aufwendige Maschine des CERN im 27 km langen Ringtunnel tief unter Genf auch gern als „Urknallmaschine“ bezeichnet. Man kann sich dem Urknall annähern – erreichen wird man ihn nie.

„The goddamn Particle“

Zwei prinzipiell völlig unterschiedliche Arten von Teilchen sind uns heute bekannt: masselose ungeladene Photonen und Teilchen, die völlig unterschiedliche Massen aufweisen wie zum Beispiel Elektronen (leicht) oder Protonen und Neutronen (schwer), die mit jeweils anderen Teilchen zum Teil heftig reagieren. Die schweren Teilchen fasst man allgemein als so genannte Hadronen zusammen: daher LHC = Large Hadron Collider. Doch wo kommt diese Masse her? Und wieso gibt es neben Teilchen mit Masse solche, die keine haben? Nach den Erkenntnissen der Quantenphysik kann jedes Teilchen auch als Welle definiert werden (Welle-Teilchen-Dualismus). Das „Standardmodell“  der heutigen Physik fordert konsequenterweise ein weiteres bisher nicht entdecktes Teilchen (oder ein Feld), das in der Lage ist, anderen Teilchen erst eine Masse, die ja offensichtlich vorhanden ist, zuzuweisen.

Beschrieben wurde dieses hypothetische Teilchen 1964 von Peter Higgs, einem schottischen Physiker und Mathematiker, weshalb es heute als so genanntes Higgs-Teilchen, Higgs-Feld, oder besser Higgs-Boson bis in die populäre Presse hinein bekannt geworden ist. Leon Lederman, Physiker und Nobelpreisträger, nannte dieses gesuchte Teilchen ein „goddamn particle“, was seinem Verleger aber aus Publizitätsgründen nicht recht passen wollte. So wurde das „Gottesteilchen“ geboren. Der Begriff gibt dem simplen Teilchen eine geradezu metaphysische Dimension, die seinem Vater, Peter Higgs, Physiker und bekennender Atheist, durchaus nicht Recht war. Er spricht weiterhin nur von dem “Teilchen, das nach mir benannt ist“.

“Es fehlt an allgemeinverständlichen Darstellungen”

Wie nun genau dieses Teilchen oder Feld anderen eine Masse zuweisen soll, ist dem Laien schwer erklärlich, und die populärwissenschaftliche Presse verrenkt sich geradezu, dies einem größeren Publikum klarzumachen. An einer Kurzbeschreibung versucht sich der Wissenschaftsjournalist des FOCUS, Michael Odenwald. Noch kürzer als Odenwald: schaut man von oben auf eine Menschenmenge, durch die ein Filmstar schreitet, so hat man den Eindruck, dass sich um ihn herum eine Traube von Menschen bildet, die mit ihm mitwandert. Vor und hinter ihm ist die Menge nicht verdickt – nur um ihn herum. Der Filmstar ist das Higgs-Boson, die Menschentraube repräsentiert die an Masse angereicherten Teilchen. Nur Photonen bleiben von dem Star völlig unbeeindruckt. Sie interagieren nicht mit dem Feld und nehmen keine Masse an.


Einer der Kontrollräume. Foto: CERN

Mit dem LHC sind nun alle Voraussetzungen gegeben, dass “Higgs” gefunden werden kann. Die einzusetzenden Energien, bei denen es theoretisch sichtbar werden sollte, sind jetzt verfügbar. Doch nun zeigt sich ein weiteres Problem, das in der Presse bisher wenig Beachtung gefunden hat: Bei jeder Hadronen-Kollision kommt es zu einer riesigen Anzahl von Ereignissen. Die Datenmengen sind enorm. Es entsteht eine regelrechte Partikelwolke, die nun daraufhin untersucht wird, ob sie auch wirklich das gesuchte Teilchen enthält. Mit direkten visuellen Auswertungen kommt man da nicht sehr weit. Es muss mithin eine Technik entwickelt werden, die verlässlich alles das herausfiltert, was man im Moment gar nicht wissen möchte. Diese Filtertechniken (von den Physikern „trigger“ genannt) werden von einer umfangreichen Arbeitsgruppe im CERN entwickelt.

Ein Mitglied dieser Gruppe ist Dr. Ralf Spiwoks, den ich im Herbst 2005 im CERN besucht habe. Spiwoks beschäftigt sich seit 1993 am CERN mit den Filtertechniken und hat darüber auch 1995 promoviert. Er schreibt: „Es fehlt wohl an guten allgemeinverständlichen Darstellungen in dem Bereich, in dem ich arbeite. Die Physiker schreiben dann lieber von der Physik, die sie sehen wollen, als zu beschreiben, wie sie diese Physik überhaupt entdecken wollen.“ Natürlich ist unter „Filtern“ nicht nur ein einfaches Aussieben zu verstehen. Spiwoks merkt dazu an: „Die ganze Kunst des Triggerns besteht natürlich darin, nicht nur Bekanntes herauszufiltern, sondern eben für alles irgendwie Auffällige offen zu sein. Daher wird in mehreren Stufen gefiltert, wobei die früheren Stufen eben sehr offen und allgemein sind, und die späteren immer spezifischer werden. Über die Zeitdauer unseres Experimentes hin werden wir auch vor allem die späteren Stufen immer weiter anpassen im Vergleich zu dem, was wir während des Experimentes schon gelernt haben. Der Trigger ist nicht ein für alle Mal fest, sondern wird sich mit unseren Erkenntnissen weiterentwickeln“.


Dr. Ralf Spiwoks. Foto: CERN

Vom Wert der Grundlagenforschung

Gehen wir also einmal davon aus, dass die Hadronen eines Tages mit der richtigen Energie aufeinanderprallen und die Trigger richtig gefiltert haben. Was ist damit gewonnen? Skeptiker bezweifeln grundsätzlich den Wert solch aufwendiger Forschung, weil sie angeblich keinen praktischen Effekt für den Fortschritt der Menschheit habe. Ist es wirklich wichtig zu wissen, dass das physikalische Standardmodell stimmig ist – wenn man Higgs findet? Was passiert, wenn man es nicht findet?

Es gibt genügend Beispiele in der Wissenschaftsgeschichte, bei denen neugefundenes Wissen zunächst abgelehnt oder gar belächelt wurde. Fällt der Apfel mit der „jüdischen“ Physik eines Einsteins etwa anders als nach Newton? Solch kurzfristiges, oder sollte man besser sagen „einfältiges“ Denken ist der wahre Feind des Fortschritts, weil es nicht offen für neue Horizonte ist. Ein Beispiel für diejenigen, die immer noch so denken: GPS, das sich heute in fast jedem zweiten Auto findet, würde ohne Einbeziehung relativistischer Effekte zu grauslichen Fehlmessungen führen. Oder ein weiteres Beispiel: Nach der Entwicklung des Lasers bekannten die Forscher sinngemäß: „Wir haben wunderschönes paralleles Licht geschaffen. Wir wissen zwar nicht, wozu das dienlich sein kann, aber irgendeinen Nutzen wird es schon bringen“. Die Nützlichkeit von Laser-Anwendungen in vielen Bereichen der Technik und Medizin ist wenige Jahre nach der „unsinnigen“ Entdeckung wohl unbestritten. Die Liste ließe sich fortführen. Es soll allerdings nicht der Eindruck erweckt werden, Fortschritt an sich sei bereits etwas Gutes. Jedes Wissen birgt auch Gefahren, wie die Entwicklung nuklearer Sprengsätze zeigt. Auch GPS und Internet sind durchaus nicht ausschließlich ein positiver Beitrag zum Fortschritt. Wer kann sicherstellen, dass sich daraus nicht ein globales Überwachungssystem à la „Big Brother is watching you“ entwickelt?

Wir können aber davon ausgehen, dass generell Wissen besser als Unwissen ist, und in jedem Fall besser als blinder Glaube an unumstößliche „Wahrheiten“, vorausgesetzt die Ethik möglicher Anwendungen ist nicht menschenfeindlich. Selbst ein „Misserfolg“ einer Grundlagenforschung wie am CERN, falls weit und breit kein Higgs zu sehen ist, würde gewaltige Auswirkungen auf unser Weltbild haben. Die Physiker wären gezwungen, ein neues Standardmodell zu entwickeln, aus dem sich wiederum neue Erkenntnisse ergeben werden. So sagt Spiwoks zum Abschluss: „diese Theorien [z.B. die Stringtheorie] werden vor allem dann noch einige Zukunft vor sich haben, wenn wir das Higgs nicht entdecken sollten“.

Interessante Artikel zum Thema:
1. Mehr über das LHC auf “Welt der Physik”: http://www.weltderphysik.de/de/351.php
2. Interview mit dem Leiter des CERN, Rolf-Dieter Heuer: http://www.wissenschaft-online.de/artikel/966468
3. Antworten auf die sieben wichtigsten Fragen “der Zeit”: http://www.zeit.de/2010/15/N-Cern
4. Für Interessierte hier eine Publikation der Arbeitsgruppe “Filtertechniken”: „The ATLAS Data Acquisition and Trigger“

 Weitere Arbeiten desselben Autors siehe hier.