Die Quantenmechanik - der Traum, aus dem die Stoffe sind English Version
www.frwagner.de

Die Quantenmechanik -
der Traum, aus dem die Stoffe sind (Teil 2)

Friedrich Wagner, November 2011 (September 2015)


Im ersten Teil dieses Textes habe ich versucht, einen Einblick in die merkwürdigen Eigenschaften der quantenmechanischen Welt zu geben, die sich jeglicher Integration in ein "vernünftiges" Gedankengebäude zu entziehen scheint. In diesem zweiten Teil möchte ich die Versuche vorstellen, diese Phänomene mathematisch zu erfassen und eine allgemein anerkannte Deutung für sie zu finden, d.h. eine physikalische Erklärung. Dabei wird sich zeigen, dass der erste Teil dieser Aufgabe als abgeschlossen und der zweite als vollkommen offen angesehen werden kann. Es gibt auch heute noch eine ganze Reihe unterschiedlicher Interpretationen der Quantenmechanik, die nur einen Punkt gemeinsam haben: Sie lesen sich mindestens ebenso fantastisch wie die quantenmechanischen Effekte, die sie erklären wollen.

Zunächst daher etwas über die Dinge, die man schon recht gut weiß.

1. Die Theorie der Quantenmechanik

Die Quantenmechanik, die vor fast 100 Jahren von Erwin Schrödinger und Werner Heisenberg entdeckt wurde, ist eine höchst elegante Theorie. Um diese Eleganz in vollem Umfang zu erfassen, ist allerdings das Verständnis einiger mathematischer Elemente wie Vektorraum, Eigenwert oder Operator notwendig. Diese Konzepte sind zwar überhaupt kein Hexenwerk (tatsächlich gehört die ihnen zu Grunde liegende Lineare Algebra häufig schon zur Schulmathematik), ihre Erläuterung würde aber doch den Rahmen dieses Textes sprengen. Interessierte Leser seien daher an eins der zahlreichen guten Bücher zu diesem Thema verwiesen[1]. Die wesentlichen Eigenschaften der Theorie der Quantenmechanik lassen sich zum Glück aber auch ohne mathematischen Formalismus umreißen, was ich im Folgenden versuchen werde. Vorhang auf für die vielleicht erfolgreichste Theorie, die die Physik je hervorgebracht hat!

Die Quantenmechanik hat drei Bestandteile:

Q1: Der Zustand eines quantenmechanischen Systems ist vollständig durch seine orts- und zeitabhängige Wellenfunktion Ψ beschrieben [2].

Beispiel Wasserstoffatom:
Als ein sehr grobes Bild für die Wellenfunktion eines Elektrons, das um ein Proton kreist, kann man sich Ψ als eine (in diesem Fall zeitlich konstante) "Wolke" um den Atomkern vorstellen, in der die Position des Elektrons "verschmiert" ist [3].
 
Q2: Die Zeitentwicklung der Wellenfunktion folgt einem zeitlich symmetrischen, linearen und deterministischen Gesetz, der Schrödingergleichung [4].

Erläuterungen:
-   Zeitlich symmetrisch heißt, dass keine Zeitrichtung ausgezeichnet ist.
-   Linear: Wenn Ψ1 und Ψ2 Lösungen der gleichen Schrödingergleichung sind, dann ist auch
    ihre Summe Ψ1 + Ψ2 eine Lösung dieser Schrödingergleichung.
-   Deterministisch: Die gesamte zeitliche Entwicklung ist eindeutig bestimmt, wenn der Zustand
    und die äußeren Einflüsse auf das System zu irgendeinem Zeitpunkt bekannt sind
 
Q3: Klassische Zustände mit konkret messbaren (beobachtbaren) Größen bilden nur eine Untermenge der möglichen quantenmechanischen Zustände. Bei einer Messung "springt" das System in einen dieser konkreten Zustände und zwar mit einer Wahrscheinlichkeit, die durch den Absolutbetrag der Wellenfunktion gegeben ist [5].

Beispiel Wasserstoffatom:
Die Wahrscheinlichkeit, das Elektron nach einer Messung am Ort r zu finden, ist |Ψ(r)|².

Eine wichtige Eigenheit der Quantenmechanik besteht somit darin, dass sie nur statistische Aussagen über den Ausgang einer Messung macht. Sie sagt zwar eine bestimmte Wahrscheinlichkeit für das Auftreten eines Ereignisses voraus, nicht aber das konkrete Ergebnis einer einzelnen Messung, das vollkommen dem Zufall überlassen ist[6]. Sie behauptet sogar, dass es sich dabei um einen "objektiven Zufall" handelt, der sich nicht auf eine subjektive Unwissenheit zurückführen lässt. Laut Q1 wird der Zustand nämlich vollständig durch die Wellenfunktion beschrieben. Die aus dem Wahrscheinlichkeitswert resultierende Verteilung der Ergebnisse über sehr viele Messungen, d.h. gemittelt über viele Teilchen oder über zeitlich aufeinanderfolgende Messungen an einzelnen Teilchen, kann aber sehr wohl aus dem Formalismus abgeleitet werden und entspricht mit einer fantastischen Genauigkeit den experimentell ermittelten Zahlenwerten.

Empirisch gesehen lässt die Theorie der Quantenmechanik somit keine Wünsche offen. Bis heute hat sich keine ihrer Vorhersagen als falsch erwiesen. Bemerkenswert ist auch, wie wichtig diese Theorie mittlerweile für uns geworden ist, nicht zuletzt auf Grund der zunehmenden Bedeutung der Halbleiter- und Computer-Technologie: Man schätzt, dass mehr als ein Drittel der Weltwirtschaft von Produkten abhängt, die direkt auf Anwendungen der Quantenmechanik zurückgehen!

Die Suche nach einer mathematischen Theorie der Quantenmechanik hat somit ein erfolgreiches Ende gefunden. Dies ändert aber nichts an der Merkwürdigkeit und dem mangelnden Verständnis der Phänomene, die im ersten Teil dieses Textes vorgestellt wurden - eine allgemein anerkannte Deutung dieser Theorie steht nämlich immer noch aus. Anders formuliert wissen wir nicht, wie wir sie physikalisch interpretieren können.

Die zentralen Probleme lassen sich an drei Punkten festmachen:

P1:

Wie lässt sich die Wellenfunktion Y physikalisch deuten, insbesondere die durch sie beschriebenen Superpositions-Zustände (Überlagerungen), und welche Interpretation haben die durch |Y|² bestimmen Wahrscheinlichkeiten?

P2:

Wie lässt sich das Phänomen der Verschränkung erklären, d.h. die augenblickliche Ausbildung von Korrelationen über beliebig lange Distanzen?

P3:

Was definiert eine "Messung", d.h. unter welchen Umständen findet sie statt und was passiert während einer Messung? Wie geschieht der Übergang von quantenmechanischen zu konkreten klassischen Zuständen?

Aus physikalischer Sicht ist vor allem das Messproblem unbefriedigend. Der quantenmechanische Formalismus macht keine Angaben, was während einer Messung passiert und wann man überhaupt von einer Messung sprechen kann. Sicher ist allerdings, dass sich der Messvorgang nicht durch die Schrödingergleichung beschreiben lässt: Diese Gleichung ist deterministisch, linear und zeitlich symmetrisch, während der Messvorgang ein intrinsisches Zufallselement enthält und einen Überlagerungszustand in nichtlinearer Weise in einen klassischen Messzustand überführt, wodurch auch eine Zeitrichtung ausgezeichnet wird. Man spricht daher auch von einem "Zustandskollaps" oder vom "Kollaps der Wellenfunktion".

Genau in diese Kerbe schlägt auch Schrödingers Katzen-Paradoxon. Um dem Resultat der weder toten noch lebendigen Katze zu entgehen, muss die lineare Zeitentwicklung der Schrödingergleichung an irgendeiner Stelle durchbrochen werden. Aber wo sollte sich diese Grenze befinden und wie muss man sich den Übergang vorstellen?

Diese Probleme waren schon bei der Formulierung der Quantenmechanik offensichtlich und zwangen ihre Gründungsväter zu einer Stellungnahme. Die Interpretation von Niels Bohr dominiert bis heute die Lehrbücher der Physik und wird daher auch als "orthodoxe Sichtweise" der Quantenmechanik bezeichnet. Ihr gebührt das erste Kapitel für den Versuch einer sinnvollen Deutung der Quantenmechanik. Es wird nicht das letzte Kapitel sein…


2. Die Kopenhagener Interpretation

Die Kopenhagener Interpretation plädiert auf einen Verzicht auf Erklärungen jenseits der messbaren Resultate. Laut Niels Bohr, nach dessen Wirkungsstätte diese Sichtweise benannt wurde[7], brauchen wir zur Untersuchung quantenmechanischer Systeme immer auch makroskopische Systeme wie z.B. Messgeräte und müssen auch auf unsere "klassische" Sprache zurückgreifen, um Versuchsaufbau und -ergebnis zu beschreiben. Der Messprozess beinhaltet außerdem immer eine nicht kontrollierbare Kopplung zwischen untersuchtem System und Messgerät. Aus diesen Gründen macht es für Bohr gar keinen Sinn, eine rein quantenmechanische Welt interpretieren und verstehen zu wollen. Aussagen lassen sich nur über die tatsächlich gewonnenen Messergebnisse machen und diese werden von der Theorie der Quantenmechanik überaus erfolgreich beschrieben. Der Kollaps der Wellenfunktion wird damit zu einer rein mathematischen Operation, womit das Problem entfällt, einen physikalischen Mechanismus dafür angeben zu müssen.

Superpositionen und die Unschärferelation versucht Bohr durch den Begriff der "Komplementarität" zu erklären: Welle und Teilchen sind komplementäre Eigenschaften des Elektrons und je nach Versuchsaufbau zeigt sich entweder die eine oder die andere Eigenschaft. Analog kann man entweder einen genauen Messwert für die Position oder den Impuls eines Teilchens erhalten. Die Frage, welche Eigenschaften vor der Messung vorgelegen haben, ist für Bohr unsinnig und nicht beantwortbar, da die Physik nur Aussagen über konkrete Messresultate machen kann. In seinen Worten:

"There is no quantum world. There is only an abstract physical description. It is wrong to think that the task of physics is to find out how nature is. Physics concerns what we can say about nature."

Erstaunlicherweise gibt sich auch heute noch ein relativ großer Teil der Physikergemeinde mit diesem sehr positivistischen Standpunkt zufrieden, der für die Suche nach physikalischen Erklärungen ad hoc eine absolute Grenze postuliert und den seit den alten Griechen vorhandenen Wunsch in Frage stellt, über naturwissenschaftliche Methoden etwas über das Wesen der Natur zu erfahren. Diese Interpretation gibt auch keine Antwort auf die (physikalisch wohldefinierte) Frage nach dem Zeitpunkt, an dem ein messbedingter Zustandswechsel stattfindet, und auch nicht nach den Umständen, die für ein solches Ereignis vorliegen müssen. Ein grundsätzliches Problem ist zudem der postulierte Unterschied zwischen der nicht realen mikroskopischen Welt der Quantenmechanik und der realen makroskopischen Welt der klassisch beschriebenen Messaufbauten. Die Kopenhagener Interpretation bietet kein objektives Kriterium für diese Unterscheidung und erklärt auch nicht, wie die Gesetze der Quantenmechanik auf mikroskopische Systeme beschränkt sein können, wo doch makroskopische Systeme aus ihnen zusammengesetzt sind. Umso unverständlicher wird dies, wenn man die Quantenmechanik als universell gültige Theorie ansieht, was Bohr zweifellos tat. Selbst das Komplementaritätsprinzip steht auf wackligen Füßen: es gibt mittlerweile Experimente[8], in denen einzelne Photonen gleichzeitig ihren Teilchen- und Wellencharakter zeigen.

Lässt sich dieser "Offenbarungseid", an der absoluten Grenze des Verstehens angelangt zu sein, irgendwie abwenden? In den vergangenen Jahrzehnten sind eine Vielzahl unterschiedlicher Ideen entwickelt worden, die genau das versuchen. Es gibt Fortschritte bei der quantenmechanischen Deutungsdebatte und deren Intensität (gemessen z.B. an der Anzahl wissenschaftlicher Publikationen zu diesem Thema) ist nicht etwa rückläufig, sondern hat in den letzten Jahren stetig zugenommen. Diese Diskussion (und damit auch der Inhalt der folgenden Kapitel) spielt sich naturgemäß im Grenzbereich zwischen Physik und Philosophie ab und lässt sich nicht durch "harte Fakten" wie unzweideutige experimentelle Belege entscheiden. Die Geschichte der Physik hat aber gezeigt, dass gerade solche grenzüberschreitenden Fragen immer wieder zu fruchtbaren Erkenntnissen geführt haben, die nicht selten wieder zu neuartigen physikalischen Theorien innerhalb der "harten Wissenschaften" geführt haben.

Ein gutes Beispiel für eine solche Erkenntnis stellt das nächste Kapitel vor. Erst in den 80er Jahren wurde eine wichtige Eigenheit quantenmechanischer Systeme entdeckt, die man als Bindeglied zwischen mikroskopischer und makroskopischer Welt sehen kann.

3. Dekohärenz - wie Quantenzustände zerfließen

Warum verhalten sich Objekte unserer Alltagswelt ganz anders als Quantenmechanik-beschriebene mikroskopische Systeme (nämlich so, wie wir es gewohnt sind), obwohl sie doch aus ihnen aufgebaut sind? Das Prinzip der Dekohärenz liefert hierfür zumindest einen Teil der Antwort.

Ein quantenmechanischer Zustand, der aus einer kohärenten Superposition einzelner Teilzustände besteht, entwickelt sich in einem abgeschlossenen System gemäß der Schrödingergleichung. Aber wie verändert sich ein solches System, wenn man es Wechselwirkungen mit der Umgebung eingehen lässt? Interessanterweise hat man erst in den 80er Jahren herausgefunden[9], dass sich das System in diesem Fall irreversibel ändert, indem die Interferenzterme der Wellenfunktion abgeschwächt werden und schließlich ganz verloren gehen - der Zustand verliert innerhalb von Sekundenbruchteilen seine Kohärenz. Die Teilzustände, die den tatsächlich messbaren Eigenschaften entsprechen, d.h. die "klassischen" Zustände des Theoriepostulats Q3, werden dagegen stabilisiert und verstärkt. In Abbildung 1 ist dies skizziert.

     

Abbildung 1: Veränderung der Wellenfunktion eines quantenmechanischen Systems durch Dekohärenz, links der Ausgangs- und rechts der Endzustand. Durch die Wechselwirkung mit der Umgebung werden die Interferenzterme stark gedämpft, es bleiben nur noch die beiden klassischen Terme bestehen, die das mögliche Ergebnis einer nachfolgenden Messung darstellen.

Auch bei einer Messung, die stets mit der Einführung von Wechselwirkungen zwischen untersuchtem System und Messgerät verbunden ist, würde sich der Effekt ergeben. Dieses Ergebnis setzt keine bestimmte Deutung der Quantenmechanik voraus, sondern lässt sich aus dem reinen quantenmechanischen Formalismus ableiten und gilt daher als unbestrittene neue Erkenntnis.

Auf den ersten Blick scheint das Phänomen der Dekohärenz perfekt zu erklären, warum sich die mysteriösen Eigenheiten der quantenmechanischen Welt nicht in unserer alltäglichen Welt zeigen. Da Wechselwirkungen mit der Umgebung praktisch unvermeidlich sind, alleine zum Beispiel durch die Wärmestrahlung, geschieht der Übergang von kohärenten zu dekohärenten Zuständen so schnell, dass die quantenmechanischen Interferenz- und Korrelationseffekte zwar bei abgeschlossenen mikroskopischen, nicht aber bei makroskopischen Systemen auftreten können. Auch das Paradoxon von Schrödingers Katze scheint damit gelöst, da solch ein großes System in Sekundenbruchteilen seine Kohärenz verlieren würde, die Katze wäre somit schon vor dem Öffnen des Kastens entweder tot oder lebendig.

Leider liefert die Dekohärenz aber nur einen Teil der Antwort. Bei der Wechselwirkung mit der Umgebung verschwinden zwar die Bestandteile der Wellenfunktion, die für die Interferenzeffekte verantwortlich sind, es bleiben aber alle klassischen Teilzustände erhalten, die für die alternativen Messresultate an diesem System stehen. Nach den Gesetzen der Quantenmechanik bleibt also immer noch eine Superposition bezüglich dieser Zustände bestehen. Am Ende der Messung liegt aber keine Überlagerung, sondern immer genau ein klassischer Zustand vor, nämlich das konkrete Ergebnis der Messung. Dieser rätselhafte Kollaps der Wellenfunktion bleibt daher ein unverzichtbares zusätzliches Element zur Zeitentwicklung durch die Schrödingergleichung, das auch von der Dekohärenz nicht erklärt wird. Das Konzept stellt daher ungeachtet seiner physikalischen Relevanz keine Lösung für das Deutungsproblem der Quantenmechanik dar. Tatsächlich ist es mit allen der in diesem Text vorgestellten Interpretationen verträglich.

Die konzeptionellen Grenzen des Prinzips der Dekohärenz betonen noch einmal die Frage, die schon bei der Formulierung der quantenmechanischen Theorie aufgeworfen wurde: Wie lässt sich der Kollaps der Wellenfunktion als integraler Bestandteil des Messprozesses erklären? Ein relativ naheliegender Versuch zur Beantwortung dieser Frage soll nun vorgestellt werden - die Erweiterung der Quantenmechanik um ein zweites Entwicklungsgesetz.

4. Der Zustandskollaps als physikalischer Prozess

Der Messvorgang, der zum Kollaps der Wellenfunktion führt, kann wie schon erwähnt nicht durch die Schrödingergleichung beschrieben werden. Für die Dauer dieses Vorgangs scheint somit ein anderes, bislang vollkommen unbekanntes Entwicklungsgesetz gültig zu sein, um das die standardmäßige Dynamik der Quantenmechanik erweitert werden muss. Sieht man den Messvorgang als echten physikalischen Prozess (und wie könnte man ihn sonst sehen?), ist diese Schlussfolgerung eigentlich unvermeidlich. Es wundert daher nicht, dass schon früh versucht wurde, diesem zweiten Gesetz auf die Schliche zu kommen. Die wichtigste Frage ist dabei, in welchem Anwendungsgebiet es zum Tragen kommt, was gleichbedeutend mit der Frage ist, unter welchen Umständen die Schrödingergleichung ihre Gültigkeit verliert. Hierfür gab es ganz unterschiedliche Vorschläge. Bezeichnet man die Schrödingergleichung mit S und das zustandskollabierende Gesetz als S*, lauten diese zum Beispiel:

Eine wirkliche Lösung liefern diese Definitionen nicht. Für keine dieser drei Varianten ist es bislang gelungen, die Grenze zwischen den beiden Anwendungsbereichen durch physikalische Kriterien auszuzeichnen, wobei der letzte Punkt im nachfolgenden Kapitel genauer beleuchtet wird. So bleiben die Begriffe wie "makroskopisch", "Messung" und "bewusster Beobachter" nur sprachliche Konstrukte ohne Erklärungswert, die sich beliebig gegeneinander austauschen lassen und sich im Grunde nicht von der Tautologie "S* gilt für Systeme im Anwendungsbereich von S*" unterscheiden.

Einen Schritt weiter geht der Vorschlag von G.C. Ghirardi, A. Rimini und T. Weber aus dem Jahr 1985, kurz "GRW-Theorie" genannt. Er sieht ein neues Entwicklungsgesetz anstelle der Schrödingergleichung vor. Als einziger Unterschied kann die Wellenfunktion dabei auch spontan, d.h. ohne äußere Einwirkung kollabieren. Dies geschieht allerdings nur extrem selten (für ein einzelnes Teilchen z.B. nur alle Milliarden Jahre), so dass der Effekt erst bei größeren Systemen sichtbar wäre. Bislang gibt es aber nicht den geringsten experimentellen Hinweis für diese Theorie. Noch dünner ist die Beweislage für die Vermutung von Roger Penrose, nach der der Kollaps durch Gravitationseffekte im menschlichen Gehirn ausgelöst wird. Diese Effekte wären durch die (noch nicht entdeckte) vereinheitlichte Theorie aus Quantenmechanik und Relativitätstheorie beschrieben und würden sich (in noch unbekannter Weise) durch bestimmte Proteinstrukturen auf makroskopische Größenbereiche verstärken.

Tatsächlich ist die Tatsache, dass sich dieses Gesetz S* so gut versteckt hält, das wichtigste Indiz dafür, dass uns ein entscheidendes Element zum Verständnis des Zustandskollaps fehlt. Trotz ständig verbesserter experimenteller Methoden, mit denen sich der Messvorgang zeitlich immer weiter auflösen lässt, ist bis heute keine noch so geringe Abweichung von der Schrödingergleichung entdeckt worden. Das gilt auch für die im ersten Teil dieses Textes beschriebenen Experimente zur Interferenz ganzer Moleküle, also weit in den Bereich hinein, den man früher ohne zu zögern als "makroskopisch" bezeichnet hätte. Überhaupt keinen klärenden Beitrag kann dieser Ansatz außerdem für das Phänomen der Verschränkung zweier weit voneinander entfernter Teilchen (das Deutungsproblem P2) liefern.

Es sieht also nicht gut aus für die Interpretation des Messvorgangs als physikalischen Prozess, um den die Schrödingergleichung ergänzt oder abgewandelt werden müsste. Die Suche wird zwar weitergeführt, die bisherigen experimentellen Ergebnisse legen die Existenz eines zweiten Entwicklungsgesetzes aber nicht gerade nahe.

Wenn der Kollaps kein physikalischer Prozess ist, vielleicht ist er dann ein geistiger!? Wir hätten dann in der Physik eine Verbindung zu unserem eigenen Bewusstsein entdeckt und es gibt einige Physiker, die diese Begegnung für absolut unausweichlich halten.

5. Die Macht des Bewusstseins

Wie das vorherige Kapitel gezeigt hat, scheint es keine Grenze für die physikalische Anwendbarkeit der Theorie der Quantenmechanik und damit auch der Superpositions-erhaltenen Zeitentwicklung der Schrödingergleichung zu geben. Schon in den 30er Jahren zeigte der Mathematiker John von Neumann, der wichtigste Wegbereitung für die moderne mathematische Fassung der Quantenmechanik (und neben Konrad Zuse übrigens auch der Erfinder der heutigen Computerarchitektur), dass sich die Superpositionen bei konsequenter Anwendung dieser Theorie auch auf die angewandten Messgeräte übertragen und auch nicht vor der Augen-Netzhaut oder den Nervenbahnen des Beobachters Halt machen. Da in unser eigenen Wahrnehmung aber keine überlagerten Zustände, sondern immer nur konkrete Messergebnisse auftreten, schloss er hieraus, dass es das menschliche Bewusstsein sein muss, das außerhalb der Gesetze der Physik steht und den Kollaps der Wellenfunktion verursacht[10].



Abbildung 2: Das Universum erschafft sich selbst.

Diese Annahme hat dramatische Konsequenzen. Ein klassischer Zustand entsteht erst durch den Kollaps der Wellenfunktion, d.h. er wird in diesem Moment im Sinne der konkreten Messbarkeit "real". Wenn das menschliche Bewusstsein die einzige Instanz ist, die diesen Kollaps bewirken kann, ist unser Universum nicht beim Urknall, sondern erst in dem Moment entstanden, als der erste Mensch seinen Blick darauf richtete! Der Physiker John Wheeler, der viele Interpretationen der Quantenmechanik maßgeblich beeinflusste, illustrierte diese reichlich absurde Vorstellung in dem nebenstehenden Bild.

Was kann man zu diesem Ansatz sagen? Eine ganz konkrete Frage ist natürlich, ob nur das menschliche Bewusstsein diese besondere Eigenschaft hat oder ob z.B. Schrödingers Katze bereits "bewusst genug" ist, um den Kollaps schon vor dem Öffnen des Kastens zu bewirken. Würde eine künstliche Intelligenz, sollte sie denn eines Tages möglich sein, diese Eigenschaft besitzen?

Der größte Schwachpunkt dieses Ansatzes ist auf jeden Fall, dass er das Problem des Zustandskollapses einfach unter den "Zauberteppich" einer nichtphysikalischen Entität schiebt, die mit dem menschlichen Bewusstsein identifiziert wird [11]. Er muss dafür einen Dualismus aus materiellen und nichtmateriellen Entitäten voraussetzen und erbt damit das Grundproblem dieser philosophisch und religiös aufgeladenen Weltsicht: Wie können sich Materie und Bewusstsein (Geist, Seele) gegenseitig beeinflussen, wenn sie nach Voraussetzung völlig unterschiedliche Wesenheiten sind? Dieser Ansatz teilt außerdem eine wesentliche Einschränkung mit den Kollapstheorien des vorherigen Abschnitts: Er kann keinen echten Beitrag für die Deutungsfragen der Quantenmechanik jenseits des Messprozesses liefern, insbesondere für die Erklärung der Korrelationen weit voneinander entfernter Teilsysteme.

Ganz offensichtlich ist also ein viel radikalerer Schritt notwendig, um die Quantenmechanik verstehen zu können. Ein solcher Versuch soll nun vorgestellt werden.

6. Versteckte Parameter - Bohms Quantenpotential

Eine sehr klassische Vorstellung ist die Idee, die Quantenmechanik liefere mit ihren statistischen Vorhersagen nur ein unvollständiges Bild der realen Naturvorgänge. In Wirklichkeit würden ganz "normale" deterministische Gesetze gelten, die lediglich noch nicht entdeckt wären und daher "versteckte Parameter" genannt werden. Die Merkwürdigkeiten der Quantenmechanik könnten sich dann aus dem Grad der Unvollständigkeit ergeben und wären nicht länger erklärungsbedürftig. Mit Albert Einstein haben wir im ersten Teil dieses Textes bereits einen leidenschaftlichen Verfechter dieser These kennengelernt - allerdings auch die endgültige Zerschlagung dieser Hoffnung in Form der Bellschen Ungleichung! Der eindeutige experimentelle Nachweis für die Verletzung dieser Ungleichung hat gezeigt, dass sich die beobachteten Phänomene durch keine dieser klassischen Theorien nachbilden lassen. Ist dies also das letzte Wort zu den versteckten Parametern?

Nicht ganz. Eine wichtige Voraussetzung bei der Ableitung der Bellschen Ungleichung ist nämlich die Lokalität der beschriebenen Mechanismen. Bei Zweiteilchensystemen von der Art des Einstein-Podolsky-Rosen-Experiments entspricht dies der (absolut naheliegenden!) Annahme, dass Korrelationen ausschließlich an der Quelle der beiden Teilchen entstehen. Allgemein bedeutet Lokalität, dass es keine Signalwirkungen schneller als die Lichtgeschwindigkeit gibt und somit die spezielle Relativitätstheorie nicht verletzt ist. Aus diesem Umstand ergibt sich nun ein interessanter Umkehrschluss: Es ist trotz der Verletzung der Bellschen Ungleichung möglich, dass die quantenmechanischen Effekte durch Theorien mit versteckten Parametern erklärt werden könnten - sofern diese nichtlokal sind[12].

Wie würde eine solche Theorie aussehen? Zunächst einmal - und das ist wahrscheinlich der schwierigste Punkt - müsste sie einen Mechanismus für überlichtschnelle Signale einführen und gleichzeitig verständlich machen, warum derartige Wirkungen bislang niemals direkt beobachtet wurden. Selbst die verschränkten Eigenschaften von zwei weit voneinander entfernten Teilchen lassen sich wie in Teil 1 erläutert nicht für den Austausch solcher Signale ausnutzen. Aber auch in den ungezählten anderen Experimenten von der Quantenskala bis zur Größenordnung von Sternen und Galaxien hat Einsteins Relativitätstheorie sämtliche Überprüfungen mit Bravour bestanden [13]. Nach allem, was wir wissen, bleibt die Lichtgeschwindigkeit daher eine unüberwindbare Barriere für den Austausch von Signalen.

Es gibt sogar noch ein anderes Argument, das die Theorie der versteckten Parameter sehr unattraktiv erscheinen lässt. Schon einige Jahre vor Bells Entdeckung wurde ein Beweis entdeckt, dass diese Theorien (selbst wenn sie nichtlokal sind) nur dann die Voraussagen der Quantenmechanik reproduzieren können, wenn sie sogenannte "kontextuelle" Größen enthalten[14]. Werden solche Größen vermessen, hängt ihr Wert nicht nur von den Eigenschaften des quantenmechanischen Systems ab, sondern auch von den genauen Umständen der Messung selber. Eine veränderte Anordnung, z.B. eine andere räumliche Orientierung der Messapparate, könnte also zu einem völlig anderen Messergebnis führen. Es scheint daher, dass sich die unerwünschte Sonderstellung des Beobachters der Kopenhagener Interpretation über die Hintertür wieder in die Theorie einschleicht[15].

Trotz dieser Schwierigkeiten kann man die Idee der versteckten Parameter nicht als widerlegt ansehen. Es gibt eine vollständig ausformulierte Theorie von David Bohm, die einen solchen Weg einschlägt und sich in völliger Übereinstimmung mit den bislang durchgeführten Experimenten befindet. Das wesentliche Element dieser Theorie ist ein allgegenwärtiges "Quantenpotential", das die Position jedes Elementarteilchens deterministisch festlegt. In dem Doppelspaltexperiment hätten die Elektronen demnach ganz konkrete raumzeitliche Bahnen von der Quelle durch den oberen oder den unteren Spalt bis zum Auftreffpunkt auf dem Detektorschirm. Ihre Bahn wäre aber durch die genaue Form des Quantenpotentials bestimmt, das wiederum davon abhängt, ob beide oder nur einer der beiden Spalte geöffnet ist. Zusätzlich wird dieses Potential auch von der Art der Messung beeinflusst. Die von der Quantenmechanik vorausgesagten Wahrscheinlichkeiten, das Teilchen an einem bestimmten Ort anzutreffen, wären dann einfach aus unserer Unkenntnis der tatsächlichen Bahnen abgeleitet. Auch einen Kollaps der Wellenfunktion würde es nicht geben, eine Messung würde uns lediglich davon in Kenntnis setzen, welche Bahn das Elektron genommen hat.

Die oben erläuterten generellen Einschränkungen finden sich aber naturgemäß auch in dieser Theorie wieder. In Bohms Entwurf ist die Position sogar die einzige lokal zuweisbare Größe, alle anderen Eigenschaften sind kontextuelle Größen in dem oben beschriebenen Sinne. Das Quantenpotential hat außerdem eine vollkommen nichtlokale Struktur - seine Wirkung auf das von ihm "geleitete" Teilchen hängt auf augenblickliche Weise von den Eigenschaften aller anderen Teilchen ab, die jemals mit ihm in Wechselwirkung standen. Da sich die Eigenschaften all dieser Teilchen wiederum von ihren Wechselwirkungspartnern ableiten, würde die Bewegung eines Teilchens laut dieser Theorie somit vom Zustand des gesamten Universums abhängen. Eine objektive Beschreibung quantenmechanischer Systeme ohne die Berücksichtigung des Beobachters bzw. des von ihm ausgewählten Versuchsaufbaus ist daher auch in dieser Theorie nicht möglich - sie beschreibt eine vollkommen holistisch geprägte Welt.

Ein grundsätzliches Problem der Bohmschen Theorie ist ihre Ausrichtung und damit auch Beschränkung auf persistent existierende Teilchen [16]. Eine Verallgemeinerung auf quantenmechanische Felder und dynamisch erzeugte und vernichtete Teilchen, wie es die Quantenfeldtheorien als speziellrelativistische Erweiterung der Quantenmechanik leisten, hat sich daher als extrem schwierige - vielleicht sogar unmögliche - Aufgabe herausgestellt. Selbst David Bohm selber hält seine Theorie daher nicht für die endgültige Lösung, ihm ging es vor allem um den Nachweis, dass es prinzipiell möglich ist, quantenmechanische Phänomene durch Theorien mit (nichtlokalen) versteckten Parametern nachbilden zu können.

Sollte irgendwann eine andere Theorie mit versteckten Parametern gefunden werden, die ebenso elegant wie die Quantenmechanik ist und gleichzeitig ihren empirischen Erfolg teilt, wäre sie natürlich ein mehr als ernst zu nehmender Kandidat für die Erklärung quantenmechanischer Phänomene. Ich überlasse es der Einschätzung des Lesers, ob die bislang gewonnenen Erkenntnisse über Bohms Quantenpotential-Theorie eher für oder gegen diese Möglichkeit sprechen. Fest steht auf jeden Fall, dass auch diese Theorie weder die Eigenschaft der Nichtlokalität noch die der Kontextualität abstreifen könnte.

7. Die Welt ist nicht genug

Wie die bisherigen Abschnitte gezeigt haben, stellt der Kollaps der Wellenfunktion, durch den Superpositionen in konkrete klassische Zustände verwandelt werden, ein zentrales Problem für die Deutung der Quantenmechanik dar. Was wäre, so fragte sich 1957 ein gewisser Hugh Everett [17], wenn es gar kein Kollaps gibt und stattdessen jeder möglicher Zustand auch tatsächlich realisiert wird? Mit Hilfe einer mathematischen Umformulierung der Quantenmechanik auf der Basis von relativen Zustandsbeschreibungen wies er nach, dass dies prinzipiell möglich ist. Ein quantenmechanisches System würde demnach immer der Schrödingergleichung folgen und die hieraus resultierenden Superpositionen wären ohne Ausnahme realisiert, womit auch jedes mögliche Messergebnis auftreten würde. Eine Messung hätte dann (im Gegensatz z.B. zur Kopenhagener Interpretation) überhaupt nichts Rätselhaftes oder Unbestimmtes, da sie lediglich den bereits vorliegenden Zustand anzeigt. Sie würde damit auch kein Zufallselement in die Theorie hineintragen - dieser Ansatz beinhaltet eine vollkommen deterministische Welt.

Vielleicht ist dem Leser schon der Pferdefuß an diesem Ansatz aufgefallen!? Wie kann jedes mögliche Messergebnis realisiert sein, wo sich die Alternativen doch widersprechen und immer nur ein Resultat durch die Messung angezeigt wird? Schrödingers Katze besteht z.B. aus einer Superposition aus tot und lebendig, wie können beide Zustände gleichzeitig real sein? Everetts Antwort auf die Frage war, dass die verschiedenen Zustände voneinander "delokalisiert" sind, und zwar mitsamt den Beobachtern, die sie messen. Es gibt also einen "Zweig" der Realität, in dem Möglichkeit A realisiert ist (z.B. tote Katze) und dies auch von einem Beobachter in diesem Zweig festgestellt wird, und einen anderen, von diesem getrennten Zweig, in dem Möglichkeit B realisiert ist (lebendige Katze), ermittelt vom Beobachter in dem zweiten Zweig. Diese Verzweigung geschieht augenblicklich und zwar laufend, nämlich immer dann, wenn die oben beschriebenen Dekohärenzeffekte auftreten, die mit irreversiblen Änderungen der Wellenfunktion einhergehen[18]. Die entstandenen Zweige können danach nicht mehr miteinander wechselwirken. Da in ihnen natürlich laufend weitere Dekohärenzeffekte auftreten, würden sich auch diese Zweige wieder verzweigen, so dass schon nach kürzester Zeit eine unüberschaubar große Anzahl entstehen würde.

Was aber heißt "delokalisiert"? Hierfür gab Everett keine weiteren Erklärungen oder Spekulationen, die einige Zeit später von anderen Physikern nachgeliefert wurden.

Die prominenteste Auslegung des Everettschen Ansatzes stammt von Bryce DeWitt und später David Deutsch. Sie sehen in den getrennten Zweigen reale Welten, d.h. minimal unterschiedliche Kopien des gesamten Universums, die bei jeder Verzweigung neu erzeugt werden und dann parallel voneinander existieren [19]. Die "Viele-Welten-Theorie" (Englisch "Many Worlds") war geboren, die bis heute gleichermaßen Physiker wie Science Fiction Autoren inspiriert. Ein Beobachter würde sich in diesem Bild entweder in der Welt mit der toten Katze oder in der Welt mit der lebendigen Katze befinden. Da er zunächst nicht weiß, in welcher er sich gerade befindet, müsste er eine Messung durchführen, was in diesem Fall der Öffnung des Kastens gleichkommt. Darin wird er entweder eine tote oder eine lebendige Katze vorfinden. Die Messung würde aber lediglich darüber Aufschluss geben, in welcher Welt er sich befindet und keinen mysteriösen Kollaps des Zustandsvektors erfordern. Die Schrödingergleichung bliebe damit das einzige Gesetz für die Zeitentwicklung der Quantensysteme, was den eigentlichen Charme dieser Interpretation ausmacht.

Es wäre nicht möglich, von der einen ("eigenen") in andere Welt zu wechseln, obwohl diese ebenso real ist [20]. Auf mikroskopischer Ebene sind die Welten allerdings nicht komplett voneinander getrennt, was man am Beispiel des Doppelspaltexperiments veranschaulichen kann. Durch die Wechselwirkung des Elektrons mit der Zwischenwand würde eine Welt entstehen, in der das Elektron durch den oberen Spalt fliegt und eine zweite Welt, in der es durch den unteren fliegt. Diese beiden Elektronen könnten dann miteinander interferieren und das beobachtete Interferenzmuster erzeugen, selbst wenn nur ein einzelnes Elektron die Versuchsanordnung durchläuft. Anders ausgedrückt interferiert das Elektron mit seinem "Schatten-Doppelgänger" aus einer parallelen Welt.

Die Viele-Welten-Theorie hat in der Physikergemeinde viele Anhänger gefunden und wird von ihnen als die Lösung für das Deutungsproblem der Quantenmechanik gesehen. Wenn man bedenkt, dass diese Interpretation die Existenz von Myriaden sich ständig vervielfältigenden "Parallelwelten" postulieren muss, die nicht direkt experimentell zugänglich sind und trotzdem genauso real wie "unsere" Welt sein sollen, wird glaube ich erst richtig deutlich, wie tiefgreifend das Dilemma ist, in das uns die Quantenmechanik gestürzt hat. Aber kann diese Theorie überhaupt die in sie gesteckten Erwartungen erfüllen?

Bei näherem Hinsehen wird deutlich: Sie kann es nicht. Die drei größten Probleme möchte ich hier kurz beschreiben.

Eine zentrale (und naheliegende) Frage wird von der Viele-Welten-Theorie überhaupt nicht beantwortet: Wie geschieht der Prozess der Weltenspaltung, bei dem eine ganze Welt mit Milliarden von Galaxien ohne Zeitverzögerung verdoppelt wird, und durch welchen Mechanismus wird er getrieben? Auch der Auslöser für die Spaltung ist nicht wirklich eindeutig (siehe Fußnote 18). Es bleibt daher das Gefühl, dass die postulierte Weltenaufspaltung mindestens so mysteriös wie der Zustandskollaps ist, dessen Einsparung gerade die Motivation für diesen Ansatz darstellte.

Ein noch konkreteres Problem ist die Rekonstruktion der quantenmechanischen Wahrscheinlichkeiten. Wie kann es eine "Wahrscheinlichkeit" für einen konkreten Messwert geben, wenn stets alle Messausgänge in Form realer Welten realisiert sind? Auch bei einer Aufspaltung für zwei Alternativen, die nach der Quantenmechanik bei einem bestimmten System z.B. zu 1% und 99% auftreten, würden nur genau zwei Welten erzeugt werden und die Wahrscheinlichkeit für einen Beobachter, in seiner Welt die darin realisierte Alternative vorzufinden, wäre natürlich 100%. Es gibt einige Ansätze, dieses Problem durch Einführung zusätzlicher Maße zu lösen, bislang war dieses Programm aber noch nicht erfolgreich.

Es gibt noch ein drittes Problem. Im Formalismus der Quantenmechanik entscheidet lediglich die Wahl des Koordinatensystems darüber, wie der Zustandsvektor zusammengesetzt ist, also ob er z.B. aus den Einzelzuständen "schwarz"/"weiß" oder "hart"/"weich" besteht. Bei einer Weltenspaltung wird aber immer nur einer dieser Varianten realisiert, d.h. es entsteht entweder eine "schwarze" und eine "weiße" oder aber eine "harte" und eine "weiche" Welt. Welche physikalischen Faktoren gibt es für diese Auswahl, die man ebenso gut als Reduktion des vor der Spaltung noch unbestimmten Zustandsvektors sehen könnte? Auf diese Frage des präferierten Referenzsystems gibt es bis heute keine allgemein anerkannte Lösung[21].

Einem Aspekt sollte man sich als Anhänger der Viele-Welten-Theorie zudem bewusst sein: Da ausnahmslos jede Möglichkeit realisiert wird, kann es bei dieser Interpretation keinen freien Willen geben. Jedem bewusst gefällten Entschluss steht eine parallele Welt gegenüber, in der sich ein ansonsten völlig identischer Beobachter befindet, der zu einer anderen Entscheidung gelangt ist[22]. Man könnte sich auch die Frage stellen, ob "alles ist real" nicht gleichbedeutend ist mit "nichts ist real".

Es stellt sich somit heraus, dass sich die Viele-Welten-Theorie genau den Problemen bezüglich des Messvorgangs und der Nichtlokalitäten gegenübersieht, zu deren Lösung sie eigentlich angetreten war, und dass sie neben der verschwenderischen Einführung von zusätzlichen Welten sogar noch ernsthafte Schwachpunkte aufweist[23]. Ob zukünftige Erkenntnisse zu einer anderen Einschätzung führen, vermag ich aber natürlich nicht zu sagen.

Angesichts der Probleme mit der Einführung real existierender Welten haben sich zwei alternative Auslegungen des Everettschen Ansatzes etabliert, die kurz umrissen werden sollen.

Ausgehend von der Idee, dass die Wellenfunktion niemals kollabiert, kann man die Aufspaltung in alternative Messergebnisse auch in den Bereich des menschlichen Bewusstseins verlagern. Genau dies ist die Annahme der 1970 von H. Dieter Zeh formulierten "Many Minds" Theorie, nach der sich nicht die Welt um uns herum und damit das gesamte Universum, sondern "nur" unser Bewusstsein (Mind) in eine Vielzahl von fast identischen Kopien aufspaltet. Sie würden sich nur darin unterscheiden, welches Messergebnis sie registriert haben, ohne dabei die anderen Kopien wahrnehmen zu können. Neben der zweifelhaften Einführung von nichtphysikalischen geistigen Wesenheiten betreffen die oben beschriebenen Probleme diesen Ansatz aber genauso wie die Viele-Welten-Theorie.

Die "Consistent History" Theorie aus dem Jahr 1984 von Robert Griffiths[24] basiert ebenfalls auf den Everettschen Ideen, macht aber einen großen Schritt in Richtung Kopenhagener Interpretation. Sie gibt sich agnostisch bzgl. der Realität der laufend entstehenden Zweige, d.h. kommt ohne die Annahme realer Parallelwelten aus. Das macht sie zwar plausibler als die Viele-Welten-Theorie, schränkt dafür aber ihren Erklärungswert ein. Im Vordergrund stehen hierbei "Historien" (Geschichten), d.h. zeitlich geordnete Sequenzen physikalischer Ereignisse. Dabei können mehrere Historien zu "Historienfamilien" zusammengefasst werden, z.B. das Elektron fliegt durch den oberen und das Elektron fliegt durch den unteren Spalt. Diese Familien werden "konsistent" genannt, wenn ihre Wahrscheinlichkeit der Summe der Wahrscheinlichkeiten der einzelnen Historien entspricht, was gleichbedeutend damit ist, dass die einzelnen Historien nicht interferieren. Inkonsistente Historien sind dagegen physikalisch nicht sinnvoll und treten niemals auf. Beim Doppelspaltexperiment ergeben sich zum Beispiel drei mögliche konsistente Historienfamilien:

1. das Elektron fliegt als Teilchen durch den oberen oder unteren Spalt

2. das Elektron zeigt Interferenzeffekte

3. es liegt ein makroskopischer Überlagerungszustand des Gesamtsystems vor

Diese Interpretation macht aber keine Aussage darüber, welche dieser drei Familien tatsächlich richtig ist, d.h. im Experiment auftritt. Hier zeigt sich das schon bekannte Messproblem bzw. der Kollaps der Wellenfunktion in lediglich abgewandelter Form. Das Problem der präferierten Referenzsystems stellt sich zudem auch für diesen Ansatz.

8. Information ist alles

Es gibt eine grundlegende Verbindung zwischen der Quantenmechanik und der Informationstheorie: Einem Quantensystem mit N möglichen diskreten Zuständen entspricht genau die Informationsmenge von N Bits, da es sich durch N Ja-Nein-Entscheidungen eindeutig festlegen lässt. Ein zweiwertiger Zustand stellt damit sowohl für die Welt der Quanten als auch für die Informationstheorie die kleinste Einheit und somit sozusagen den Grundbaustein unserer Welt dar. Anton Zeilinger, der durch seine Experimente zum "Beamen" von Photonen bekannt wurde, fügt dieser Parallele den folgenden Gedanken hinzu: Wie können wir etwas über unsere Welt erfahren? Die einzige Möglichkeit ist das Sammeln und Auswerten von Informationen über diese Welt. Eine "Wirklichkeit", über die wir überhaupt keine Informationen erlangen können, ist für uns vollkommen unzugänglich und wird daher zum leeren Begriff. Wenn Wirklichkeit und Information aber immer nur als Verbund erfahrbar sind, macht es naturwissenschaftlich keinen Sinn, der Wirklichkeit gegenüber der Information eine Sonderrolle zuzugestehen. Die grundlegenden Naturgesetze dürfen daher keinen Unterschied zwischen Wirklichkeit und Information machen, was nichts anderes heißt, als dass diese beiden Begriffe im Grunde ein und dasselbe sind.

Hieraus ergibt sich ein bemerkenswerter neuer Blickpunkt auf die Quantenmechanik. Der quantenmechanische Zustand und damit die Wellenfunktion entspricht der Information, die wir über die Welt haben. Jedes System verfügt aber nur über eine begrenzte Informationsmenge, die wir experimentell abrufen können. Von welcher Art diese Information ist, hängt von den Fragen ab, die wir dem System stellen, d.h. von der Wahl der Messgrößen. Befragt man z.B. ein Elektron bezüglich seiner räumlichen Position, steht nicht mehr genug Information für einen scharfen Wert des Impulses zur Verfügung. Das Teilchen "vergisst" sozusagen diesen Wert, was sich in der Heisenbergschen Unschärferelation widerspiegelt. Die Befragung eines Systems, das bereits seine ganze Information verloren hat, würde dann zu vollkommen beliebigen und nicht determinierten Ergebnissen führen, was das neuartige Zufallselement der Quantenmechanik erklärt. Besonders anschaulich lassen sich damit auch die im ersten Teil dieses Textes beschriebenen Experimente erklären, bei denen das Interferenzmustermuster hinter dem Doppelspalt verschwindet, sobald man irgendeine Information über den Weg des Atoms oder Moleküls ermittelt, selbst wenn diese keinen direkten Einfluss auf die raumzeitliche Bahn des Teilchens hat.

Weniger überraschend erscheinen in diesem Bild auch die Korrelationen von weit voneinander entfernten Teilchen. Hier trägt nur das Gesamtsystem eine gewisse Information, z.B. die Gegensätzlichkeit der jeweiligen Spins bezüglich einer vom Experimentator festgelegten Achse. Die Ergebnisse der Einzelmessungen wären dann für sich genommen vollkommen zufällig und unabhängig vom Ort und Zeitpunkt der Messung, woraus sich auch kein Widerspruch zur Relativitätstheorie ergeben würde, die nur informationstragenden Signalen eine absolute Geschwindigkeitsgrenze auferlegt.

Einige Autoren gehen sogar so weit, der Information einen ontologischen Status zuzuerkennen und sie als den Grundbaustein dieser Welt zu sehen. Materielle Eigenschaften wären dann nur noch abgeleitete und keine echten realen Größen mehr. John Wheeler hat für dieses Programm den griffigen Ausdruck "It from Bit" eingeführt. Viele Physiker, z.B. der Informationstheoretiker Gregg Jaeger, halten allerdings den Versuch, Physik auf Information zurückzuführen, für genauso unplausibel wie die Reduktion des Informationsbegriffs auf die Physik [25]. Treffender ist dagegen die Feststellung, dass physikalische Gesetze die Informationsverarbeitung in charakteristischer Weise einschränken. Die Analyse der resultierenden Informationseigenschaften ist daher ein fruchtbares Programm, um die dahinterliegende Physik besser verstehen zu können. Gerade bei der Quantenmechanik hat sich gezeigt [26], dass ihre nicht-klassischen Eigenschaften unter diesem Blickwinkel besonders klar und auch quantitativ erfassbar zur Geltung kommen.

Zurück zur informationstheoretischen Rekonstruktion der Quantenmechanik im Sinne von Zeilinger. Man kann diesen Ansatz als Variante der Kopenhagener Interpretation ansehen, denn es war der Kerngedanke von Niels Bohr, dass die Theorie nicht die Elementarteilchen "an sich" beschreibt (was er für unmöglich hielt), sondern lediglich die Antworten auf die experimentell gestellten Fragen liefert. Der Verzicht auf eine weitergehende Beschreibung oder Erklärung der Phänomene, wie z.B. dem Weg des Elektrons im Doppelspaltexperiment, wäre aber nicht mehr ad hoc postuliert, sondern würde die objektive Abwesenheit entsprechender Informationen widerspiegeln. Meiner Meinung nach ist die informationstheoretische Rekonstruktion daher eine konsistentere und damit auch glaubhaftere Weiterentwicklung der Kopenhagener Interpretation. Eine sehr interessante Variante dieses Ansatzes ist zudem die sogenannte "Relationale Interpretation", die im folgenden Kapitel kurz beschrieben ist.

Auch diese Interpretation hat aber ihre Einschränkungen. Insbesondere bietet sie keine konkreten Antworten auf die Frage, wie und wann genau die stetige Entwicklung des quantenmechanischen Zustandes durch die diskrete "Informationsentnahme" abgelöst wird und welche Bedingungen für diesen Übergang vorliegen müssen. Die Verschränkungseffekte mögen außerdem weniger ungewöhnlich erscheinen, einen konkreten Mechanismus für ihr unbestreitbares Auftreten sucht man bei diesem Ansatz aber vergebens. Ohne die (natürlich sehr zweifelhafte) These der Kopenhagener Interpretation, dass makroskopische Objekte im Gegensatz zu mikroskopischen real sind, bezieht sich das Weltbild der informationstheoretischen Rekonstruktion zudem auf den gesamten Bereich unserer Natur. Sie behauptet damit nicht weniger, als dass die objektive beobachterunabhängige Realität unserer Welt eine Illusion ist und dass die Frage, ob es den Mond gibt, wenn wir ihn nicht beobachten, nicht ohne weiteres mit Ja beantwortet werden kann.

9. Weitere Interpretationen

Die folgenden Interpretationen, die nur kurz umrissen werden sollen, stellen eine bestimmte philosophische Sichtweise in den Vordergrund oder sind Abwandlungen der bereits vorgestellten Ansätze. Sie liefern zwar durchaus interessante Teilaspekte für die Deutungsdebatte, können aber meiner Meinung nach nicht als vollständig ausgearbeitete Interpretationen der Quantenmechanik als Alternative zu den bislang vorgestellten Ansätzen gezählt werden.

Nach der Ensemble Interpretation (M. Born und A. Einstein 1926, später vertreten von L. Ballentine) können nur Ensembles, also große Anzahlen von Teilchen in reproduzierbarer Weise vermessen und damit physikalisch beschrieben werden, während sich über Einzelereignisse keine Aussagen gewinnen lassen. Es wäre daher müßig, eine Erklärung für sie finden zu wollen. Neben der Frage, ab wie vielen Teilchen man von einem "Ensemble" sprechen kann (bei einer strengen Auslegung wäre die Theorie nur für unendlich viele Teilchen und damit niemals anwendbar), und der fehlenden Erklärung für das Phänomen der Verschränkung hat dieser Ansatz aber das Problem, dass die Quantenmechanik unter bestimmten Umständen sehr wohl Aussagen über einzelne Ereignisse machen kann, nämlich immer dann, wenn die vorausgesagte Wahrscheinlichkeit 0% oder 100% beträgt.

Ziel der Quantenlogik (G. Birkhoff und J. von Neumann 1936) ist die Rekonstruktion der Quantenmechanik mit einer allgemeineren als der klassischen Logik, die für diese Theorie als adäquat gesehen wird. Sie beinhaltet eine Abschwächung der klassischen Logik, so dass insbesondere aus P and (Q or R) nicht mehr automatisch (P and Q) or (P and R) folgen würde. Zu echten physikalischen Einsichten hat dieser Ansatz aber bislang nicht geführt.

Die Modale Interpretation (B. van Fraassen 1972) versteht sich als Variante der Kopenhagener Interpretation, die ohne das fragwürdige und schwer konkretisierbare Postulat des Kollapses der Wellenfunktion auskommt. Sie führt dazu neben dem sogenannten "dynamischen Zustand", dessen Zeitentwicklung der Schrödingergleichung folgt, einen "Werte-Zustand" ein, der die möglichen beobachtbaren Größen für das jeweilige System beschreibt. Der dynamische Zustand legt dabei Wahrscheinlichkeiten für die Elemente des Werte-Zustands fest und ist keinem Kollaps unterworfen.

Die Plausibilität dieses Ansatzes, von dem es mehrere Untervarianten gibt, hängt davon ab, wie natürlich die Einführung einer zweiten Zustandsgröße erscheint und ob sich dieses Konzept auf Quantenfeldtheorien verallgemeinern lässt, was bislang noch nicht vollständig gelungen ist. Auch diese Interpretation liefert außerdem keine Erklärung für die Verschränkungseffekte.

Die Relationale Interpretation (C. Rovelli 1994) ist eine Variante der informationstheoretischen Rekonstruktion der Quantenmechanik. Sie nimmt an, dass nur Beziehungen zwischen Systemen und Beobachtern als real angesehen werden können und dass die Wellenfunktion genau diesen Beziehungen entspricht. Ein objektiver Gesamtzustand bezüglich mehr als einem Beobachter existiert also gar nicht [27]. Der Kollaps der Wellenfunktion wird dabei durch jede Art der Interaktion hervorgerufen und kommt daher ohne erklärungsbedürftige Begriffe wie "Messung" oder "makroskopische Welt" aus. Die Einschränkung des Realitätsbegriffs entschärft auch das Deutungsproblem der Verschränkung, da es keinen absoluten Gesamtzustand mehr gibt, der augenblicklich auftretende Korrelationen für zwei verschiedene Beobachter zeigen könnte. In diesem Sinne ist diese Interpretation sogar lokal, natürlich nur bezüglich jedes Beobachters.

Was diese Interpretation abgesehen von einem objektiven Gesamtzustand nicht bietet, ist eine Erklärung für die nachträglich festgestellten Korrelationen durch Verschränkungseffekte. Diese können nämlich auch von einem einzigen Beobachter ermittelt werden, wenn er die Ergebnisse der beiden (zuvor ggf. weit voneinander entfernten) Messergebnisse zusammenträgt und miteinander vergleicht.

Eine noch radikalere Auffassung kommt im Quanten-Bayesianismus (C. M. Fuchs, C. A. Caves und R. Schack 2002) zum Ausdruck [28]. Er hält physikalische Objekte wie Elektronen für real, gesteht ihnen aber nur dispositionelle Eigenschaften zu, d.h. die Fähigkeit, im Falle von Wechselwirkungen mit anderen Quantensystemen bestimmte physikalische Ereignisse zu verursachen. Die Wellenfunktion repräsentiert dann nur noch die Einschätzung eines rationalen Agenten über das Ergebnis einer Messung, also sozusagen sein Wetteinsatz für einen bestimmten Ausgang, womit der Kollaps der Wellenfunktion zum metaphysisch unproblematischen Erkenntnisgewinn wird. Diese konsequent subjektivistische Interpretation hat das Problem, dass sie keine weitergehende Erklärung hinter den Phänomenen liefert und das Ziel der Physik verkennt, physikalische Systeme anstelle von Entscheidungskriterien rationaler Agenten zu beschreiben.

Es gibt noch eine ganze Reihe weiterer Interpretationen, die aber typischerweise nur Abwandlungen der bereits vorgestellten Ansätze beinhalten, insbesondere z.B. der Kopenhagener Interpretation[29].


10. Ein Zwischenfazit

Es lohnt es sich, ein kurzes Zwischenfazit zu ziehen. Ohne eine (ohnehin nicht mögliche) endgültige Wertung abgeben zu wollen, kann man folgendes feststellen: Die "realen" Interpretationen, die vom Grundsatz einer objektiven, von uns Beobachtern unabhängigen Realität ausgehen, haben es nicht leicht, eine befriedigende Erklärung der quantenmechanischen Phänomene zu liefern und ihre interpretationseigenen Probleme zu lösen. Als eine besonders schwierige Aufgabe hat sich dabei die Erklärung der Verschränkung erwiesen, die ohne direkte Verletzung der Relativitätstheorie beliebig weit voneinander entfernte Systeme auf fast magische Weise miteinander verbindet. Deutlich plausibler wirken dagegen die empiristisch geprägten Ansätze wie die informationstheoretische Rekonstruktion als moderne Variante der Kopenhagener Interpretation. Sie lassen aber den Wunsch nach einer objektiven und beobachterunabhängigen Beschreibung unserer Welt genauso unerfüllt wie die Angabe von konkreten Mechanismen hinter den quantenmechanischen Phänomenen. Mein persönliches Zwischenfazit fällt daher negativ aus: Trotz jahrzehnterlanger Diskussionen und zahlreicher neuer Ideen und Verbesserungen altbekannter Ansätze kann keine der hier beschriebenen Interpretationen eine wirklich überzeugende Deutung der Quantenmechanik liefern.

Wieder ist es Albert Einstein, der schon damals treffende Worte fand. Vielen Lesern wird vielleicht sein Ausspruch "Raffiniert ist der Herrgott, aber boshaft ist Er nicht!" bekannt sein, der seinen tiefen Glauben in die Rationalität und Verständlichkeit unserer Welt widerspiegelt. Weniger bekannt ist ein Zitat von ihm, das er nur wenige Jahre später angesichts des neuen Weltbildes der Quantenmechanik tätigte:

"Ich habe noch einmal darüber nachgedacht. Vielleicht ist Er doch boshaft."

Noch ist dieser Parforceritt durch die Interpretationslandschaft der Quantenmechanik aber nicht zu Ende. Im dritten Teil dieses Textes möchte ich einen Ansatz vorstellen, der eine realistische Beschreibung unserer Welt liefert und gleichzeitig das Potential hat, sämtliche Merkwürdigkeiten der Quantenmechanik erklären zu können. Sein einziges Problem: Er ist schwer zu glauben. Ihn zeichnet nämlich eine ganz spezielle Besonderheit aus - Wellen, die in der Zeit zurücklaufen.

In diesem dritten Teil werde ich versuchen, Sie zu überzeugen, dass dieser Ansatz längst nicht so verrückt ist, wie er klingt. Im Mittelpunkt wird dabei eine klärende Diskussion der Zeit selber stehen, die zu einem überraschenden Ergebnis führen wird. Bleiben Sie gespannt!


Anhang

Übersicht der Interpretationen

Die folgende Übersicht führt die wichtigsten Eigenschaften der hier besprochenen Interpretationen der Quantenmechanik auf. Die Zuweisungen haben sich dabei als erstaunlich schwierig herausgestellt und sind oft sogar bei den Anhängern der jeweiligen Ansätze umstritten. Diese Tabelle, die auch schon den Transactional Ansatz aus dem dritten Teil dieses Textes enthält, sollte daher nur als grobe Orientierung verstanden werden.


Empfehlenswerte Bücher

Als Einführung würde ich vor allem die Bücher von A. Zeilinger und J. Gribbin sowie das englischsprachige Buch von Rosenblum&Kuttner empfehlen. Die mathematische Theorie der Quantenmechanik wird in D. Albert gut erklärt und die beste weiterführende Darstellung der verschiedenen Interpretationen gibt meiner Meinung nach das Buch von J. Baggott.

In vielerlei Hinsicht bemerkenswert ist zudem das Buch von R. Kastner. Pflichtlektüren über das Phänomen der Zeit sind außerdem die Bücher von H. Price und A. Bardon.



[1] Als Einstieg eignet sich z.B. das im Anhang aufgeführte Buch [Albert 1992].

[2] Diese Funktion hat dabei Werte aus dem Bereich der komplexen Zahlen, die eine Erweiterung der reellen Zahlen um Lösungen für die Gleichung x² + 1 = 0 sind. Dazu wird eine neue Zahl i, die "imaginäre Einheit", mit der Eigenschaft i² = −1 eingeführt. Diese Zahlen sind nicht mehr oder weniger "wirklich" als reelle oder natürliche Zahlen, sie eignen sich einfach sehr gut zur kompakten Formulierung mathematischer Strukturen.

[3] Diese "Orbitale" sind nur im Grundzustand sphärisch, angeregte Zustände können auch andere Formen annehmen.

[4] Die Gleichung ist eine partielle Differentialgleichung und lautet mit der imaginären Einheit i, dem Planckschen Wirkungsquantum h und dem Hamilton-Operator H, der die Energie des jeweiligen Systems beschreibt.

[5] Der Absolutbetrag einer komplexen Zahl ist immer reell, so dass man den Betrag der Wellenfunktion bei geeigneter Normierung direkt als Wahrscheinlichkeit zwischen 0 (unmöglich) und 1 (sicher) interpretieren kann.

[6] Ausnahmen bilden die Fälle, in denen die berechnete Wahrscheinlichkeit bei 0% oder 100% liegt. Hierfür kann die Quantenmechanik mit Bestimmtheit voraussagen, zu welchem Ergebnis die jeweilige Messung führt.

[7] Häufig werden auch die Deutungsversuche von Bohrs Schüler Werner Heisenberg zur Kopenhagener Interpretation gezählt, was aber problematisch ist, da sie sich teilweise deutlich von Bohrs Sichtweise unterscheiden. Heisenberg stellte sich die Elemente der quantenmechanischen Welt als "Potentialitäten" vor, denen er durchaus einen realen Status zuerkannte. Generell sind die philosophischen Ausführungen von Bohr so mehrdeutig, dass es bis heute keine einhellige Meinung über die "richtige" Fassung der Kopenhagener Interpretation gibt.

[8] Ausführlich erläutert werden diese Experimente z.B. in [Gribbin 1998].

[9] Erstmals beschrieben wurde dieser Effekt von H. Dieter Zeh, spätere Arbeiten stammen u.a. von Wojciech Zurek und Erich Joos.

[10] Diese Idee wurde später von Eugene Wigner aufgenommen, der schrieb: "It was not possible to formulate the laws of quantum theory in a fully consistent way without reference to consciousness."

[11] Selbst Eugene Wigner als Vertreter dieses Ansatz musste zugeben: "It may well be said that we explain a riddle by a mystery."

[12] Interessanterweise nahm man lange Zeit an, dass selbst nichtlokale Theorien mit versteckten Parametern unmöglich wären. Der entsprechende Beweis von John von Neumann erwies sich aber später als lückenhaft. Dieser Umstand war wahrscheinlich mit dafür verantwortlich, dass die Kopenhagener Interpretation eine solch hohe Akzeptanz erfahren hat.

[13] Das gilt auch für die in den 90er Jahren durchgeführten Experimente, in denen Photonen mithilfe des quantenmechanischen Tunneleffekts (die Überwindung von Energiebarrieren, die nach der klassischen Physik unüberwindlich hoch sind) von einem Ort zum anderen transferiert wurden. Als besonders medienwirksam erwies sich dabei die Wahl einer frequenzmodulierten Mozart-Sinfonie. Natürlich trägt ein solches Stück Informationen, aber die Signalgeschwindigkeit, definiert über die Ansprechzeit des Detektors am Zielort, erwies sich auch bei diesen Experimenten als durch die Lichtgeschwindigkeit begrenzt.

[14] Dieser Beweis trägt nach seinen beiden Entdeckern den Namen "Kochen-Specker-Theorem".

[15] Es gibt zudem eine Erweiterung der Bellschen Ungleichung von Anthony James Leggett, nach der bestimmte Klassen von Theorien mit versteckten Parametern ausgeschlossen werden können, selbst wenn diese nichtlokal sind. Leggett behauptet sogar, auf diese Weise alle "realen" Theorien widerlegen zu können. Diese Schlussfolgerung ist aber äußerst umstritten, zumal die hier beschriebene Quantenpotential-Theorie in seinen Arbeiten zur Klasse der nicht widerlegten Modelle gehört.

[16] Eine weitere Einschränkung ist die fehlende Erklärung der Spin-Eigenschaften von Elementarteilchen.

[17] Die Arbeit von Hugh Everett III (so sein kompletter Name) war eine Doktorarbeit bei John Wheeler, der sich aber später von dieser Interpretation distanzierte. Enttäuscht von der anfänglich geringen Resonanz seiner Idee verließ Everett sehr früh den Wissenschaftsbetrieb und wandte sich stattdessen der Anwendung spieltheoretischer Methoden zu - mit denen er später als Firmengründer und militärischer Berater im Pentagon zum Millionär wurde.

[18] Diese Rolle der Dekohärenz wurde erst später eingeführt, d.h. sie stammt nicht von Everett. Bei den Vertretern der Viele-Welten-Theorie trifft man allerdings auch heute noch auf unterschiedliche Angaben für die genaue Festlegung des auslösenden Ereignisses. Häufig werden z.B. Begriffe wie "messartige Interaktion" oder "beobachtungsartiger Prozess" bemüht, die ähnlich undefiniert sind wie der Begriff der "Messung" in der Kopenhagener Interpretation.

[19] David Deutsch bevorzugt eine Interpretation, nach der schon immer unendlich viele parallel existierende Welten vorlagen und diese bei einer Everettschen Aufspaltung lediglich "gefüllt" werden. Die zentralen Eigenschaften und auch die Schwachpunkte der Viele-Welten-Theorie bleiben aber auch bei dieser Variante erhalten.

[20] Obwohl die Viele-Welten-Theorie in diesem Punkt ziemlich eindeutig ist, wurde schon spekuliert, dass ein Übertritt in eine parallele Welt auch logisch konsistente Zeitreisen erlauben könnte, da man die "Vergangenheit" der Ziel-Welt beeinflussen würde, ohne die der Ausgangs-Welt zu ändern.

[21] Einige Autoren hoffen auf die Dekohärenz als Lösung für dieses Problem, bislang waren aber alle Versuche in diese Richtung erfolglos (siehe z.B. [Jaeger 2009], S. 156-159).

[22] Es gibt noch ein Kuriosum dieser Weltsicht, das definitiv nicht zur Nachahmung empfohlen ist: Jeder Selbstmordversuch wäre zum Scheitern verurteilt, da es durch ein (un?)glückliches Zusammentreffen von Zufälligkeiten immer passieren kann, dass der Versuch misslingt. Danach würde es also mindestens eine Welt geben, in der man sich lebendig wiederfinden und über den unglaublichen Zufall der Rettung wundern würde. Mit dieser Methode könnte man sich bei wiederholter Anwendung sogar selbst von der Plausibilität der Viele-Welten-Theorie überzeugen - aber leider niemand anderen.

[23] Auch die Analysen in [Albert 1992], [Price 1996], [Barett 1999], [Zeilinger 2003] und [Jaeger 2009] kommen zu dem Schluss, dass die Viele-Welten-Theorie derzeit keine ernst zu nehmende Alternative für die Deutung der Quantenmechanik darstellt.

[24] Spätere Arbeiten stammen von Roland Omnès, Murray Gell-Mann und James Hartle.

[25] Eine ausführliche Diskussion dieses Themas findet sich in [Jaeger 2009], Kapitel 4.7.

[26] Für eine derartige Analyse sei auf [Jaeger 2009] verwiesen.

[27] Der Autor sieht diesen Ansatz inspiriert vom Erfolg der Relativitätstheorie, die ebenfalls über den Verzicht absoluter Elemente (nämlich des absoluten Raumes) zu neuartigen Erkenntnissen kam.

[28] Der Begriff geht auf den Mathematiker Thomas Bayes zurück, der Wahrscheinlichkeit als Grad der persönlichen Überzeugung deutete.

[29] Eine gute Quelle für eigene Recherchen ist die Seite "Minority interpretations of quantum mechanics" bei Wikipedia.