Der Autor (*1950) ist Professor für Physik an der Stanford University in Kalifornien und Nobelpreisträger von 1998; diesen bekam er zusammen mit Daniel Tsui und Horst Ludwig Störmer, den Entdeckern des fraktionellen Quanten-Hall-Effektes, während Laughlin eine theoretische Erklärung dazu entwickelt hatte. Was dieser Effekt bedeutet, muß uns hier nicht weiter interessieren, es wird im Buch mit Hilfe von Verweisen auf die einschlägige Literatur erläutert.

Nicht von ungefähr drängt es Naturwissenschaftler von Zeit zu Zeit, Bücher über eigentlich philosophische Themen zu schreiben. Waren doch die Naturwissenschaften noch in den 1960er Jahren an vielen Universitäten, z.B. in Marburg, Teil der Philosophischen Fakultät und man machte als Chemiker seinen Dr.phil. und keineswegs den Dr.rer.nat.. Aber häufig war denselben Naturwissenschaftlern gar nicht klar, daß sie sich auf philosophischem Parkett bewegten, daß sie die vertrauten Gefilde ihrer eigenen Spezialwissenschaft schon längst verlassen hatten.

Robert B. Laughlin: Abschied von der Weltformel. Die Neuerfindung der Physik, Piper Verlag, München 2009 (ungekürzte Taschenbuchausgabe, 330 S., broschiert, € 9.95)

Nun, solange es keine Kampfschriften des Kalten Krieges waren wie Monods „Zufall und Notwendigkeit“ von 1971, waren es mitunter ernsthafte Bemühungen, die Kopfschmerzen verursachenden Quanteneffekte in eine neue Weltsicht einzubauen oder diese so umzubauen, daß ein konsistentes Bild von unserer – materiellen – Welt entstand. Denn daß Physiker sich von jeher dazu berufen sehen, die Welt erklären zu müssen und dies auch zu können, darüber bestand unter ihnen selbst kein Dissens.

Mit genau diesem selbstherrlichen Reduktionismus setzt sich der Autor in herzerfrischender Weise auseinander. (Man sehe davon ab, daß der Verlag auf dem hinteren Buchumschlag ausgerechnet aus einer Rezension von „Bild der Wissenschaft“ zitiert, in der offenbar vom „Zeitalter des Reproduktionismus“ die Rede ist, wo doch im Buch selbst an 31 Stellen explizit über „Reduktionismus“ gesprochen wird. Schließlich ist es ja auch kein Buch über Geburtenkontrolle).

Laughlin hält dem Reduktionismus zugute, daß er verführerisch sei: „Wieso ansonsten kühl logische Menschen sich auf so offensichtlich belanglose Angelegenheiten festlegen konnten, ist eine faszinierende Frage – letztlich zu beantworten ist sie meiner Ansicht nach mit der verführerischen Macht reduktionistischer Überzeugungen. Die Vorstellung, Objekte im Nanomaßstab müßten kontrolliert werden können, ist bezwingend, weshalb sie manchen für die überwältigende Evidenz blind macht, dass das nicht möglich ist.“ (203)

Dagegen ist Laughlin laut eigenem Vorwort – „erheblich radikaler als … meine() Vorgänger“ – „… zunehmend davon überzeugt, dass alle und nicht nur einige der uns bekannten physikalischen Gesetze aus kollektivem Geschehen hervorgehen. Anders gesagt, die Unterscheidung zwischen grundlegenden Gesetzen und den aus ihnen hervorgehenden Gesetzen ist ebenso ein Mythos wie die Vorstellung, das Universum allein durch die Mathematik beherrschen zu wollen.“ (16)

Laughlin ist sich im klaren, daß und wann er den Boden der Philosophie betritt: „Diese umfassenderen begrifflichen Fragen, die in keiner Weise der Wissenschaft, sondern der Philosophie zugehören, interessieren uns jedoch häufig am meisten, weil wir uns auf sie beziehen, wenn wir Verdienste abwägen, Gesetze formulieren und im Leben Entscheidungen treffen.“ (17)

Mit „Wissenschaft“ meint Laughlin natürlich Einzelwissenschaft; ob er der Philosophie selbst keinen wissenschaftlichen Ansatz bzw. eine wissenschaftliche Methodik zutraut, weiß man nicht und sei dahingestellt. (Sucht man im Index nach Marx, findet man nur die Marx Brothers; auch Hegel oder Engels kommen nicht vor). Aber Laughlin unterscheidet sich schon insofern signifikant von vielen anderen Naturwissenschaftlern, als er das Thema Einzelwissenschaft – Philosophie überhaupt anspricht und sich der Grenzen und Übergänge bewußt ist. Laughlin versucht nicht, aus der Physik – sozusagen in linearer Verlängerung ihres jeweiligen Gültigkeitsbereichs – eine Weltsicht, geschweige denn eine „neue“ Weltanschauung abzuleiten. Geradezu amüsant sind seine anekdotischen Berichte von Gesprächen mit Chemikern/Biochemikern und/oder Biologen, mit denen Physiker, einschl. Laughlin selbst, erhebliche Kommunikationsprobleme haben. Zu Recht betrachtet er die Arbeit der Molekularbiologen gewissermaßen als Herumstochern im Nebel der Ungenauigkeit, jedenfalls danach, wie Physiker Ungenauigkeit verstehen, nämlich mathematisch nicht exakt oder mindestens mit Angabe der Fehlertoleranzen. Und deren Grenze liegt für einen Physiker dann oft in der Nähe der Heisenbergschen Unschärfe, d.h. bei 10-34. Zum Vergleich: Zeitmessungen sind gegenwärtig in einer Größenordnung von 10-15 bis 10-18 s möglich, d.h. im Femto- bis Attosekundenbereich.

Entsprechend charakterisiert Laughlin „Wissenschaft“, besser hätte er gesagt: „Wissenschaftlichkeit“, mit exaktem Messen. Im 2. Kapitel „Leben mit der Unbestimmtheit“ definiert er: „An der Existenz universeller, genau bestimm- und meßbarer Größen hängt die Physik als Wissenschaft.“ (34) Und wir lesen weiter: „Wie bei allen anderen menschlichen Tätigkeiten ist es auch in der Wissenschaft notwendig, ab und an Bilanz zu ziehen und wieder einmal zu bewerten, was man denn nun bis in die Tiefe versteht und was nicht. In der Physik geht diese Neubewertung fast immer auf präzise Messungen zurück.“ (35)

Das ist in der Tat in der Molekularbiologie (noch?) nicht möglich; die Experimente auf diesem Gebiet gleichen denen mit einer Black-Box. Aus dem Versuchsansatz und den Reaktionen, die die Black-Box hervorbringt, wird auf die Vorgänge im Inneren mehr oder weniger intuitiv und aufgrund des bisherigen, jedoch noch äußerst lückenhaften Wissens um molekulare Reaktionen in Zellsuspen-sionen auf das abgelaufene Geschehen geschlossen. Da darf man sich auch nicht von ästhetisch ansprechenden Zeichnungen über diese angenommenen molekularen Reaktionen täuschen lassen; diese sind tatsächlich nur modellhaft angenommen, wahrscheinlich und im Großen und Ganzen richtig, aber eben nur wahrscheinlich. Ein Beweis, dass es biochemisch so abgelaufen ist, ist es nicht.

Dem Autor ist entgegenzuhalten, daß der Entwicklungsstand der Molekularbiologie aber auch noch nicht so weit fortgeschritten ist, daß man in allen molekularen Details weiß, was bei einem Experiment passiert; in der Medizin ist diese Lücke noch weit größer, aber niemand würde auf die Idee kommen, deshalb keine Patienten mehr zu behandeln, nur weil man sich in vielen Bereichen noch im vorwissenschaftlichen Stadium von „Versuch und Irrtum“ befindet, also tief im 18. Jahrhundert. Ein bißchen unterliegt der Autor dabei dem Verdacht, auf diese, theoretisch noch nicht so weit entwickelten Wissenschaftsgebiete „von oben herab“ zu schauen; das ist der Sache und ihrer Historie nicht angemessen.

In einer Angelegenheit irrt Laughlin sich allerdings ganz gewaltig: die „Verschränkung“ von Licht oder Elementarteilchen wie Elektronen ist kein normaler Materiezustand. Die Aussage „In letzter Zeit wird viel Mühe darauf verwendet, die Verschränkung in der Quantenmechanik zu beweisen – in Wahrheit beweist sie sich täglich mit großer Präzision durch das von Atomen emittierte Licht“ (90) ist etwas blauäugig formuliert. Laughlin beruft sich in einer Anmerkung auf zwei Bücher über „Entanglement“, die er anscheinend nicht mit großer Präzision überprüft hat: sicher gibt es „verschränkte“ Teilchen, sogar Moleküle, man braucht auch in der Tat gar nicht mehr deren Existenz zu bezweifeln (an die Einstein nicht glauben wollte), aber solche, auch kohärente Zustände genannten, Verschränkungen sind erstens extrem schwierig herzustellen (bei sehr tiefen Temperaturen im Hochvakuum) und sie zerfallen mit atemberaubender Schnelligkeit wieder, im Bereich von Nanosekunden (10-9 s), weil sie in der realen Umgebung auf andere Materieteilchen stoßen, mit denen sie wechselwirken. Diesen letzteren Effekt nennt man „Dekohärenz“. Daher ist es auch nicht richtig, daß „ ‚Verschränkung’ bedeutet, was Elektronen immer zeigen und nicht nur zu manchen Zeiten.“ (225) Selbst im Weltall gibt es derart viel interstellare Materie, Weltallstaub, daß verschränkte Photonen oder andere kohärente Teilchen nicht lange in diesem Zustand bleiben würden.

Wenn man Quantencomputer bauen will, die den Effekt der Verschränkung nutzen, muß man die entsprechenden Rechenoperationen mit einem solchen Computer in der kurzen Zeit ausführen können, in der die Verschränkung aufrecht erhalten werden kann, also etwa im Nano- bis Mikrosekundenmaßstab. Irgendwelche technischen Lösungen für dieses Problem werden mit Sicherheit in den nächsten Jahrzehnten gefunden werden, aber sie werden kolossal aufwendig sein. Und tatsächlich wird zurzeit wieder einmal eine Menge Geld für entsprechende Forschungsprogramme ausgegeben (in der BRD im Programm „nanoQUIT“). Im 6. Kapitel „Der Quanten-computer“ vermißt man genauere Informationen über diese Schwierigkeiten; Laughlin erwähnt bloß, daß er froh sei, daß die steigende Flut der Veröffentlichungen über Quantencomputer „glücklicherweise langsamer zunimmt.“ (114, Anm. 7) Für ihn ist schon der herkömmliche Silizium-Halbleiterprozessor ein Quantencomputer.

Aufschlußreich dagegen, weil Laughlin auch darin sehr offen ist, sind seine am Rande erwähnten, politischen Implikationen naturwissenschaftlich-technischer Arbeit: der Sternenkrieg in der Auseinandersetzung mit der Sowjetunion seit der Ära Reagan, die schließlich „totgerüstet“ wurde (274), das Verhältnis von Politik und Physik (307, 313f.), die unvorstellbaren Kosten der Atomwaffenprogramme (155, 176) und schließlich die verschleuderten Kosten von „schlechten Experimenten“. Den letzteren hat Laughlin sogar mit dem 13. ein ganzes Kapitel gewidmet, „Grundlagen des Lebens“ (234-259). Laughlin hat hier eigene Erfahrungen gemacht, weil er eine zeitlang am Livermore Laboratory beschäftigt war. Hier geht es nicht so sehr um von Wissenschaftlern individuell schlecht geplante oder unsinnige Experimente, die es sicher auch zuhauf gibt, sondern systematisch angelegte, weil sie entweder schlicht zu teuer gewesen wären und daher nie durchgeführt worden waren oder weil sie unter realen Umständen, wie bei Kernwaffen z.B., gar nicht durchführbar gewesen wären. „Es kam darauf an, dass einen die Konstruktionsvorschriften zum bedeutsamen Resultat, zum nützlichen Ergebnis führten, nicht darauf, ob das auf logische Weise zustande kam. Man hatte die Vorschriften so angepaßt, dass sie mit dem Ergebnis bestimmter, groß angelegter Tests der Vergangenheit übereinstimmten, und sie hätten nicht korrekt funktioniert (anders gesagt, nicht mit den Tests übereingestimmt), wenn man sie abgeändert hätte. Die Experimente, mit deren Hilfe man in die Nuklearwaffe hineinschaut, um zu prüfen, ob die in den Konstruktionsvorschriften enthaltenen Theorien korrekt sind, waren nie durchgeführt worden und würden wahrscheinlich auch nie durchgeführt werden. Zum einen wären entsprechende Versuche teuflisch schwer zu realisieren, weil es da drin ziemlich heiß wird und man, ehe die Messvorrichtung verdampft ist, nicht viel Zeit hat, das Signal herauszubekommen. Der wahre Grund jedoch ist, dass man sie mit außerordentlicher Aufmerksamkeit für alle Details wiederholt auszuführen hätte, was sie folglich extrem teuer machen würde.“ (238f.) Schließlich reichte es vollkommen aus, wenn die Atombomben explodierten, auch ohne daß man die Kettenreaktion theoretisch hätte berechnen können und aufgrund einer korrekten Spezifikation der Bombe ihre Funktion validiert hätte, wie das sonst in der herstellenden Industrie üblich ist.

Weitere Gründe für „schlechte Experimente“ stammen dann aus der Silizium-Halbleitertechnik und sind daher vor allem dadurch gekennzeichnet, dass mit der praktischen Anwendung viel Geld verdient wurde und immer noch werden kann und so „aus Gründen geistigen Eigentums jeder jedem Informationen vorenthält“. (240f.) Was Laughlin zu dem hübschen Bonmot inspiriert hat: „In der Wissenschaft gewinnt man an Stärke, wenn man anderen mitteilt, was man weiß, in der Technik gewinnt man Stärke, wenn man anderen vorenthält, was man weiß.“ (240)

Logischerweise hat Laughlin sein letztes Kapitel, das 16., „Das Zeitalter der Emergenz“ genannt: „Sosehr mir die Vorstellung von Zeitaltern auch mißfällt, so gut läßt sich meiner Ansicht nach vertreten, dass die Wissenschaft mittlerweile von einem Zeitalter des Reduktionismus in ein Zeitalter der Emergenz übergegangen ist, eine Ära, in der die Suche nach den letzten Ursachen der Dinge sich vom Verhalten der Teile auf das Verhalten des Kollektivs verlagert.“ (303) Schön wär’s! Wenn bloß alle Wissenschaftler das schon begriffen hätten.

Auch der Schlußabsatz ist zitierenswert: „Wir leben nicht in der Endzeit der Entdeckungen, sondern am Ende des Reduktionismus, einer Zeit, in der die falsche Ideologie von der menschlichen Herrschaft über alle Dinge mittels mikroskopischer Ansätze durch die Ereignisse hinweggefegt wird. Damit ist nicht gesagt, daß Gesetzmäßigkeit im mikroskopischen Maßstab falsch sei oder keinen Zweck habe, sondern nur, daß sie in einer Vielzahl von Umständen durch ihre Kinder und Kindeskinder, die höheren Ordnungsgesetze der Welt, belanglos geworden sind.“ (321)

Bleibt anzumerken, daß die Literaturverweise nach jedem Kapitel sehr nützlich, weil vorsortiert und teilweise kommentiert sind; aber es gibt typischerweise einmal mehr das Problem, daß schon jetzt sehr viele Internetverweise nicht mehr aufgeschlagen werden können.

Peter M. Kaiser, Hameln

 

sem, suscipit mattis ipsum sed consequat. commodo