Kausale Determination? Eine wissenschaftstheoretische Auseinandersetzung mit der kausalen Geschlossenheit der Welt Drucken E-Mail
Mittwoch, 03. Dezember 2008 um 15:55

Kausalität

Menschen streben danach, die Welt und sich selbst immer besser zu verstehen. Verstehen bedeutet, für Ereignisse Gründe angeben zu können. Das Begründete kann dabei nicht ohne den Grund sein und nicht ohne den Grund verstanden werden; es ist entweder sachlich das Frühere und Verursachende, logisch das Allgemeinere oder aber die zugrunde liegende Gesetzmäßigkeit.

Aristoteles nennt vier verschiedene Arten von Gründen bzw. Ursachen (causae): Wesens-, Daseins-, Wirk- und Zielgründe. Die ersten beiden sind innere Gründe: Der Künstler ist die Wesens-, der Gips die Daseinsursache der Skulptur. Die Zielgründe spiegeln sich in der Handlungsmotivation von Menschen wider, die etwas tun, um etwas anderes zu erreichen.
Ein mechanistisches Weltbild reduziert alle Vorgänge auf die Wirkursache. Viele Naturwissenschaftler und Philosophen, vor allem im 18. und 19. Jahrhundert, sahen und sehen die Welt als ein kausal geschlossenes System, in der jedes Ereignis auf ein zeitlich früheres, unmittelbar zuvor eingetretenes und verursachendes Ereignis zurückgeführt werden kann. Ein solcher mechanistischer Materialismus lässt sich historisch auf die antiken Atomisten Leukipp und Demokrit zurückführen, eventuell auch weiter zurück auf Thales und den Milesiern, deren Bestreben es war, die erste Ursache (arch?) alles Seienden zu finden. Populär wurde der Atomismus in der römischen Zeit durch den Epikureer Lukrez. Die Blütezeit des philosophischen Materialismus fand im Zeitalter der Aufklärung statt, auch in Abgrenzung zum Kartesischen Dualismus. Wichtige Vertreter sind Hobbes, La Mettrie und d’Holbach. Den kosmologischen Materialismus entwickelten Vogt, Moleschott und Büchner zu einem anthropologischen radikalen Materialismus weiter, in dem der Mensch und sein Gehirn gänzlich zur Maschine reduziert werden. Weiter gefestigt wurde dieser Materialismus durch die Evolutionstheorie Darwins und der Philosophie Haeckels (Monismus).
Der Erfolg der Naturwissenschaft und der von ihr hervorgebrachten kausalen Gesetzmäßigkeiten sind Gründe für die allgemein verbreitete Auffassung, dass Kausalität ein Wesensmerkmal der Natur und die Natur eine vom Menschen unabhängige Realität darstellt. Doch sprach David Hume den berechtigten Einwand aus, dass alle Kausalbeziehungen nur induktiv empirisch, aber nicht logisch notwendig erkannt werden können. Er fragte, warum es notwendig sei, dass jedes Ding eine Ursache haben sollte und warum wir annehmen, dass eine einzelne Ursache notwendig eine ganz bestimmte einzelne Wirkung zur Folge haben soll. Da jedes aufgestellte Naturgesetz aber auf eine endliche Zahl von Einzelbeobachtungen zurückführbar ist und das Gesetz durch einen Induktionsschluss aufgestellt wird, kann kein Naturgesetz als logisch notwendig erkannt werden und ist (mit der Terminologie Poppers) somit nicht verifizierbar, sondern nur falsifizierbar.
Tiefer in die Problematik dringt Immanuel Kant ein, indem er die Kausalität als eine Voraussetzung des Erkenntnisvermögens bestimmt.   Notwendig sind nach seiner Definition diejenigen Dinge, ohne die Erkenntnis nicht möglich ist, d.h. die Erkenntnis bedingen. Dazu gehören logische Gesetze wie das Nichtwiderspruchsprinzip, aber auch der Kausalitätsgedanke. Kausalität ist also eine „apriorische Bedingung von Gegenständlichkeit und damit von Gegenstandserfahrung und -erkenntnis“ . Trotzdem erachtet Kant die Welt nicht als kausale geschlossen: Der Mensch sei in seiner Freiheit in der Lage, neue Anfänge von Kausalketten zu setzen. Da die kausale Geschlossenheit der Welt außerhalb unseres Erkenntnisvermögens liegt, ist sie nach Kant von der theoretischen Vernunft nicht beweisbar, wird aber von der praktischen Vernunft als Bedingung von Sittlichkeit gefordert.

 

Funktionelle Zusammenhänge statt Ursachen

Inwiefern legen uns die Erkenntnisse der Naturwissenschaft eine kausale Geschlossenheit der Welt nahe? Zunächst ist es wichtig, gemäß Maxwell genau zwischen der reversiblen und der irreversiblen Kausalität zu unterscheiden: 
Naturwissenschaftliche Theorien beinhalten normalerweise nicht die Begrifflichkeit von Ursache und Wirkung, sondern von Zuständen, die sich nach bestimmten mathematischen Gesetzmäßigkeiten zeitlich entwickeln. Russell schrieb 1912: „Alle Philosophen (…) stellen sich vor, dass Kausalität eines der fundamentalen Axiome (…) der Naturwissenschaft sei. Jedoch kommt das Wort ‚Ursache’ in den höheren Naturwissenschaften wie etwa der die Gravitationstheorie anwendenden Astronomie niemals vor.“ Eine auf Ursache und Wirkung basierende Kausalität ist eher ein Phänomen des Alltags und der nicht-exakten Wissenschaften. Der Physiker Wilhelm Wien schrieb dazu: „[Die] Aufstellung funktioneller Zusammenhänge ist recht eigentlich die Aufgabe der theoretischen Physik. Von Kausalität ist dabei nicht die Rede.“ Ernst Mach ersetzte deshalb den Kausalbegriff durch den Funktionsbegriff. Stefan Bauberger betont, dass ein metaphysischer Kausalitätsbegriff physikalisch nicht operationalisierbar ist und deshalb durch den „wohldefinierten Begriff der Vorhersage“ ersetzt werden müsse. 
Ein Beispiel vom Fortschreiten von der klassischen Vorstellung von Ursache und Wirkung zur funktionalen Zustandskausalität ist die Newtonsche Gravitationstheorie im Vergleich zur Allgemeinen Relativitätstheorie (ART). Newton geht von Gravitationskräften aus, die von einem Objekt auf ein anderes wirken, wie etwa die Sonne, genauer gesagt das durch die Sonnenmasse erzeugte Gravitationsfeld, auf die Erde wirkt (und umgekehrt!). Die Gleichungen der ART hingegen beschreiben die zeitliche Entwicklung (Dynamik) eines Gesamtsystems. Sind die Gleichungen einer solchen Dynamik allgemein gültig und vollständig, ist das Geschehen in einem abgeschlossenen System deterministisch, zumindest in Bezug auf den Geltungsbereich der Theorie.
Die Welt als abgeschlossenes System vorausgesetzt, sollte die kausale Geschlossenheit der Welt deshalb auch eher im Sinne von Laplace  aufgefasst werden: Die Welt ist genau dann determiniert, wenn es möglich ist, dass eine Intelligenz, die zu einem bestimmten Zeitpunkt t den gegenwärtigen Zustand aller Teilchen und aller Kräfte in der Natur kennt, die Zustände aller Teilchen und alle Kräfte zu jedem Zeitpunkt t+?t voraussagen kann. Die Voraussetzung dafür, dass eine solche Intelligenz alle zukünftigen Zustände vorhersagen kann, sind einerseits genau definierte Zustände (Wertdefiniertheit und Nicht-Kontextualität), andererseits universell gültige und deterministische mathematische Relationen über die zeitliche Entwicklung von Zuständen.

 

Kausalität in der Relativitätstheorie

Beschreibungen der speziellen Relativitätstheorie (SRT) verwenden oft die Begriffe Ereignis, Ursache und Wirkung. Das relativistische Kausalitätsprinzip besagt, dass nur Ereignisse, zwischen denen ein zeitartiger Abstand liegt, miteinander kausal verbunden sein können.  Da die Ausbreitungsgeschwindigkeit des Lichtes konstant ist, können sich gemäß der SRT physikalische Wirkungen niemals schneller als das Licht ausbreiten. Die ART weitet diese Einschränkung auch auf die Gravitationskraft aus. Diese Beschränkung der Ausbreitungsgeschwindigkeit steht im Gegensatz zur Newtonschen Mechanik, in der sich Wirkungen instantan ausbreiten (was jedoch schon von Newton stark angezweifelt wurde). Trotzdem ist die Newtonsche Mechanik nicht falsch, sie muss aber als Spezialfall der ART für (im Vergleich zur Lichtgeschwindigkeit) sehr kleine Geschwindigkeiten angesehen werden. Wäre das Prinzip der SRT und ART verletzt, könnte beispielsweise ein schnell fliegender Beobachter Wirkungen von einzelnen Ereignissen wahrnehmen, bevor deren Ursache eintritt; die Möglichkeit temporaler Paradoxien wäre die Folge.
Die Allgemeine Relativitätstheorie weist ein wichtiges Charakteristikum von funktionalen Naturgesetzen auf, und zwar die Reversibilität bzw. Zeitumkehrinvarianz. Zustände von Systemen kann man sowohl in ihrer Dynamik zurückverfolgen als auch zukünftige Zustände voraussagen. Albert Einstein glaubte an die ART als fundamentales Naturgesetz und daher an die strenge Kausalität im Laplaceschen Sinn.

 

Einwände gegen die strenge Kausalität

1. Die Verabsolutierung der reversiblen Kausalität mündet im Determinismus. „Kausalität in diesem Sinne zeigt aber keinen Unterschied zwischen Vergangenheit und Zukunft“ (Friedrich Hund). Die makroskopische Welt bringt jedoch auch Phänomene einer irreversiblen Ereigniskausalität hervor: Ein Blitz schlägt in ein Haus ein, dieses brennt ab. Der Vorgang ist irreversibel, da das abgebrannte Haus eine höhere Entropie aufweist und gemäß dem zweiten thermodynamischen Hauptsatz die Entropie eines isolierten Systems in positiver Zeitrichtung niemals abnehmen kann. In Begriffen einer irreversiblen oder thermodynamischen Kausalität greift eine Ursache (der Blitz) von außen in ein offenes System (das Haus) ein. Ursachen sind nach Hund also „unerwartete Eingriffe in ein sonst normal verlaufendes Geschehen.“  (Unfalltheorie).
Ein realistisches Verständnis der für die Physik grundlegenden Thermodynamik vorausgesetzt, steht der Entropiesatz im Konflikt zu den Gesetzen für Mikrozustände (Mechanik, Quantenmechanik): Wie können Mikrostände zeitumkehrinvariant sein, während Makrozustände es nicht sind? Die Temperatur als thermodynamische Größe ist beispielsweise quantenmechanisch definiert, trotzdem sind Prozesse wie der Wärmeausgleich irreversibel. Statistik und Wahrscheinlichkeiten geben hierauf eine Antwort: Dass ein Eimer mit lauwarmem Wasser sich plötzlich in eine Hälfte warmes und eine Hälfte kaltes Wasser aufteilt (also der umgekehrte Prozess der Vermischung), ist quantenmechanisch gesehen nicht unmöglich, doch nimmt die Wahrscheinlichkeit für einen solchen Vorgang mit zunehmender Größe des Systems ab, auf makroskopischer Ebene wird er praktisch unmöglich. Die Quantenmechanik steht deshalb nicht im Widerspruch zu irreversiblen Prozessen.
Naturwissenschaft setzt neben zeitlich symmetrischen Zuständen auch zeitlich asymmetrische Messungen voraus. Jede Messung ist mit der Erstellung eines Dokuments über die Messergebnisse verbunden, um einen Informationsgewinn zu gewährleisten, unabhängig ob dies ein Gehirn oder die Festplatte eines Computers ist. Die Herstellung eines Dokuments bewirkt eine Entropieabnahme im Datenspeicher, was dem Entropiesatz entsprechend notwendigerweise zu einer Entropiezunahme bei der Messung führt (Carl Friedrich von Weizsäcker). Noch vor der Einbeziehung der Quantenmechanik steht also fest, dass jede Messung aufgrund der thermodynamischen Entwicklung  nicht zeitumkehrinvariant, also irreversibel ist.
2. Max Planck stellt zwei wichtige Aussagen gegenüber: (1) Ein Ereignis ist dann kausal bedingt, wenn es mit Sicherheit vorausgesagt werden kann. (2) In keinem einzigen Fall ist es möglich, ein physikalisches Ereignis genau vorauszusagen.  Interpretiert man (1) als Subjunktion, folgt daraus logisch nicht, wie Max Planck es behauptet, dass kein einziges Ereignis kausal bedingt ist, wohl aber, dass diese Relation für unser Erkenntnisvermögen nicht zugänglich ist (vgl. Kant). Poincaré erklärte, der Grund für (2) sei die generelle Unkenntnis über den genauen Anfangszustand, d.h. die Messungenauigkeit.  Um die strenge Kausalität aufrechtzuerhalten, hat die physikalische Wissenschaft Aussage (1) modifiziert und das Wort ‚Ereignis’ in einem anderen Sinne gebraucht.  Gemäß Planck betrachte die theoretische Physik „nicht einen einzelnen Messvorgang, (…) sondern einen gewissen, nur gedachten Vorgang“  als Ereignis, und zwar, indem sie das „physikalische Weltbild“ an die Stelle der Sinnenwelt setzt. Dieses physikalische Weltbild stelle „eine bis zu einem gewissen Grade willkürliche Gedankenkonstruktion (…), eine modellmäßige Idealisierung“  dar. Deutet man die in der Physik immer vorhandene Messungenauigkeit ausschließlich epistemisch, könne man die Existenz absoluter Größen aufrechterhalten (Wert-Definiertheit). Messwerte müssten dann „zwar nicht immer absolut, aber doch beliebig genau“ ermittelt werden können.
Planck möchte einen wahrscheinlichkeitsfreien Kausalitätsbegriff aufrechterhalten. Franz Exner, Lehrer Schrödingers, plädiert jedoch für einen Kausalitätsbegriff, der nur das „durchschnittliche Geschehen“ berücksichtigt.  Er argumentiert für eine „von absolut deterministischen Gesetzen freien Mikrowelt“.  Das bedeutet, dass es auf mikroskopischer Ebene echten Zufall geben kann, d.h. Ereignisse, die von früheren Ereignissen vollständig unabhängig sind. Mathematisch würde man solche Folgen z.B. als Bernoulli-Folgen bezeichnen. Physikalische Erscheinungen, wie beispielsweise Druck in der Thermodynamik, resultierten aus vielen gleichartigen, voneinander unabhängigen Einzelereignissen.  Alle physikalischen Größen müssten als statistische Größen und alle physikalischen Gesetze als Durchschnittsgesetze anerkannt werden.
Erwin Schrödinger würdigte die Arbeit seines Lehrers bei seiner Antrittsvorlesung in Zürich und kam zum Befund: „Die Beweislast [der absoluten Determiniertheit des molekularen Geschehens] obliegt den Verfechtern, nicht den Zweiflern an der absoluten Kausalität“.
3. Die verbreitete Meinung, die klassische Mechanik sei deterministisch, darf hinterfragt werden. Wie schon oben durch Planck und Poincaré gezeigt, gilt in der klassischen Mechanik ein epistemischer Indeterminismus. Max Born zeigt darüber hinaus, dass durch das chaotische Verhalten eines dynamischen Systems kleine Differenzen im Ausgangszustand nicht immer als kleine Differenzen erhalten bleiben (stabile Fälle), sondern zu ungeahnten Ausmaßen anschwillen können (instabile Fälle). Born lehnt im Gegensatz zu Planck die Wert-Definiertheit physikalischer Größen ab: „Aussagen wie ‚Eine Größe x hat einen scharf bestimmten Wert’ (ausgedrückt durch eine reelle Zahl, …) scheinen mir keinen physikalischen Sinn zu haben.“  Untermauert wird diese Auffassung durch die Thermodynamik (Klassische statistische Mechanik): In der Liouvilleschen Fassung der Hamiltonschen Gleichungen erscheint die Dichte eines Zustands nur in Form einer Dichtefunktion, die man als einen Kenntnisgrad interpretiert;  es liegt ein „Indeterminismus in bezug auf den exakten Zustand vor.“
4. Die größte Erschütterung für die klassische Physik trat mit der Einführung der Quantenmechanik und deren Interpretationen ein. Die Quantenmechanik bestärkt die Gegner einer kausalen Geschlossenheit der Welt, da sie auf Mikroebene innerhalb der Theorie indeterminierte Ereignisse zulässt. Dieser Indeterminismus ist, ähnlich wie in der Thermodynamik, auf makroskopischer Ebene nicht anzutreffen, da zwar das Einzelereignis indeterminiert, die Gesamtheit mehrerer Ereignisse jedoch statistisch determiniert ist. Doch erschütterte die Quantenmechanik den Glauben an die Wert-Definiertheit physikalischer Größen, die ja Bedingung einer strengen Kausalität ist. Lässt sich diese Wert-Definiertheit aufrechterhalten?

 

Grundlegende Prinzipien der Quantenphysik

 Albert Einstein erhielt 1922 den Nobelpreis nicht etwa für die damals noch sehr umstrittenen Relativitätstheorie, sondern für die Entdeckung des photoelektrischen Effektes, der bewies, dass Energie nicht stetig, sondern in Energiepaketen übertragen wird, d.h. quantisiert ist. Der zweite Schritt hin zur Quantenphysik war das Einfach- und das Doppelspaltexperiment. Wenn Elektronen auf eine Wand mit einem schmalen Spalt gefeuert werden, werden diejenigen, die durch den Spalt treten, ähnlich einer Welle in einem zufälligen Winkel? abgelenkt, wobei die Wahrscheinlichkeitsverteilung von ? statistisch determiniert ist. Das Elektron wird beim Durchschreiten des Spaltes in eine bestimmte Position gezwungen, da seine Ortsunschärfe in diesem Moment der Breite des Spaltes entspricht. Die Ursache für die Beugung ist nun, dass aufgrund der Heisenbergschen Unschärferelation die niedrigere Ortsunschärfe durch eine höhere Impulsunschärfe (die eben neben dem Impuls in Flugrichtung auch den Querimpuls betreffen kann) ausgeglichen werden muss.
 Platziert man in einer Wand zwei Spalte in unmittelbarer Nähe und feuert Elektronen dagegen, erhält man den Versuchsaufbau eines Doppelspaltexperimentes. Die Wahrscheinlichkeitsverteilungen der beiden Spalte addieren sich dabei nicht etwa auf, sondern erzeugen ein solches Interferenzmuster, das etwa entsteht, wenn sich zwei radiale Wasserwellen an manchen Punkten gegenseitig auslöschen, an anderen verstärken. Das seltsame an der Welleneigenschaft von Teilchen besteht darin, dass dieses Interferenzmuster auch dann noch besteht, wenn die Elektronen einzeln auf die Wand gefeuert werden, also eigentlich unmöglich miteinander interferieren können. Versucht man zu messen, durch welchen Spalt das Elektron durchschreitet, verhält sich ein einzelnes Elektron wie beim Einfachspalt, auch wenn nur an dem Spalt gemessen wird, durch den jenes Elektron nicht gegangen ist.
 Dieses Phänomen ist durch die klassische Physik in keiner Weise erklärbar, es scheint sogar sehr mysteriös. Man kann es sich als einfacher Beobachter nur dadurch erklären, dass das Elektron, insofern es nicht beobachtet wird, durch beide Spalte gleichzeitig tritt und mit sich selbst interferiert, oder, und das ist noch mysteriöser, dass es zwar immer nur durch einen Spalt schreitet, aber genau „weiß“, ob ein anderer Spalt ohne Messinstrument vorhanden ist und seine Wahrscheinlichkeitsverteilung (Interferenzmuster oder nicht) von eben diesem Wissen abhängig macht.
 Die Quantenmechanik erklärt dieses Phänomen, indem sie klassische Teilchen durch Materiewellen beschreibt. Die deterministische Beschreibung der zeitlichen Entwicklung von Ort und Impuls wird dabei durch eine statistische ersetzt; die Schrödinger-Gleichung beschreibt die Dynamik nicht etwa des genauen Ortes und des Impulses eines Teilchens, sondern des neu eingeführten Zustandsvektors, der (als quadrierter Betrag) mit der Aufenthaltswahrscheinlichkeit des Teilchens bei einer Messung an einem bestimmten Ort und zu einer bestimmten Zeit übereinstimmt. Der Zustandsvektor selbst entwickelt sich als Funktion stetig und determiniert, so lange keine Messung (bzw. Wechselwirkung mit anderen Teilchen) erfolgt. Die Indeterminiertheit der Quantenphysik nach Kopenhagener Deutung ergibt sich aus dem „Springen“ des Zustandsvektors bei einer Wechselwirkung, beispielsweise beim Auftreffen des durch den Doppelspalt gesendeten Elektrons auf einen Schirm. Die Deutung besagt, dass das Elektron lokal verschmiert, d.h. als Masse und Ladung tragende Wahrscheinlichkeitswelle, durch beide Spalten fliegt, anschließend in einem Interferenzmuster verschmiert weiterfliegt und sich beim Auftreffen auf den Schirm aus der Materiewelle instantan ein Teilchen mit genau bestimmtem Auftrittsort formt.
 Nach dieser Interpretation werden in der Quantenmechanik zwei grundlegende physikalische Prinzipien aufgegeben, das der Lokalität und das der Separabilität. Die Lokalität wurde von Einstein als Prinzip der Unzulässigkeit von Fernwirkungen eingeführt, die ist ein wichtiger Bestandteil der SRT ist. Kein Effekt darf sich ihr zufolge schneller als mit Lichtgeschwindigkeit ausbreiten, da es sonst zu temporalen Paradoxien und dadurch zu logischen Widersprüchen kommen würde. Wie gerade erwähnt, tritt das Springen des Zustandsvektors instantan ein, und zwar nicht nur beim Doppelspaltexperiment, sondern auch bei verschränkten Teilchen. Beispielsweise können durch parametric down conversion in nichtlinear optischen Kristallen Photonen so verschränkt werden, dass sie, auch nachdem sie sich viele Kilometer voneinander entfernt haben, durch eine Wellenfunktion beschreiben lassen. Nun hat eine Messung des einen Photons ein Springen des Zustandsvektors zur Folge, der sich unmittelbare auf das weit entfernte Photon auswirkt. Da bei einer solchen Messung keine Informationen übertragen werden können, wird zwar die Lokalität verletzt, temporale Paradoxien können aber nicht entstehen. Diese Fernwirkung wird auch als Quanten-Nichtlokalität bezeichnet.
 Als Separabilität wird manchmal die raumzeitliche Getrenntheit der Realität bezeichnet. Diese wird dann verletzt, wenn sich ein Teilchen (als Materiewelle) an mehreren Orten gleichzeitig aufhalten kann. Diese Verletzung scheint sowohl durch das Doppelspaltexperiment als auch durch die Verschränkung von Photonen bestätigt zu werden. Der eigentliche Gebrauch entspricht aber dem Gegenbegriff zur Komplementarität von messbaren Eigenschaften wie von Ort und Impuls oder von verschiedenen Spin-Zuständen verwendet. Auch bei diesem Prinzip erkennt man bei Experimenten wie beim Stern-Gerlach-Experiment eine Verletzung, da aufgezeigt wird, dass der Drehimpuls eines Elektrons in Bezug auf einer bestimmten Achse nur solange bestimmt ist, wie der Drehimpuls in Bezug auf eine andere Achse unbestimmt ist.
 Ist die Quantenmechanik nun eine richtige bzw. vollständige Theorie, müssen für die physikalische Realität die Prinzipien der Nicht-Lokalität und der Nicht-Separabilität gelten. Das Springen des Zustandsvektors bei Wechselwirkungen wäre außerdem in Bezug auf das Einzelereignis indeterminiert, würde also einem echten Zufall entsprechen. Die kausale Geschlossenheit der makroskopischen Welt wäre demnach nur aufrechtzuerhalten, wenn man beweisen kann, dass der Indeterminismus dieser einzelnen Effekte keine Auswirkungen auf die makroskopische Welt haben kann (vgl. Abschnitt Dekohärenz). Zunächst soll aber erörtert werden, ob die Wertdefiniertheit von Eigenschaften nicht doch aufrechtzuerhalten ist, wenn man die Quantenmechanik als unvollständige Theorie betrachtet.

 

Wert-Definiertheit und verborgene Variablen

Wert-Definiertheit ist dann gegeben, wenn Messwerte einer bestimmten Observable an einem Einzelsystem definit sind, d.h. zu allen Zeiten konkret festliegen und eine Eigenschaft des Einzelsystems determinieren.   Darüber hinaus ist ein System nicht-kontextuell, wenn seine Eigenschaften, die zu bestimmten Messwerten führen, unabhängig vom Kontext der Messung bestehen. Wenn die Beschreibung der Quantenmechanik vollständig ist und der Zustandsvektor eine objektive Größe darstellt (d.h. realistisch interpretiert wird), sind die Eigenschaften eines Quantensystems in einem Überlagerungszustand indeterminiert und besitzen keine Werte. Wer die Objektivität von Wahrscheinlichkeiten und den daraus resultierenden Indeterminismus der Quantenmechanik aber ablehnt, muss diese als unvollständig erachten und eine grundlegendere Theorie postulieren, aus der die Gleichungen der Quantenmechanik hergeleitet werden können. Die Unschärferelation wird dann epistemisch interpretiert, das heißt, dass Eigenschaften wie Ort und Impuls oder Spin-Zustände zwar komplementär, jedoch auf grundlegendere reale Eigenschaften zurückführbar sind. Die Eigenschaften eines Quantensystems besäßen folglich wohl definierte Werte zu allen Zeiten, auch wenn sich das System in einem Überlagerungszustand befände.
Albert Einstein wollte die Wert-Definiertheit der Physik nicht vorschnell aufgeben und entwarf gemeinsam mit Boris Podolski und Nathan Rosen ein Gedankenexperiment, das aufzeigen sollte, dass die Quantenmechanik gegen den lokalen Realismus verstoße und deshalb nicht richtig sein kann. Dabei postulierte er verborgene Variablen. John Bell entwickelte das EPR-Gedankenexperiment nun zu einem tatsächlich durchführbaren Experiment weiter. Dabei werden zwei Elektronen miteinander verschränkt und in gegenüberliegende Richtung ausgesendet. Nun lässt man das Drehmoment des ersten Teilchens in Bezug auf eine bestimmte Achse messen, während man das zweite Teilchen in Bezug auf eine andere Achse misst. Wählt man drei mögliche Achsen aus und stellt die Messinstrumente so ein, dass sie für die zwei Teilchen immer zwei verschiedene Achsen messen, ergeben sich 3! verschiedene Messkombinationen bei 23 verschiedenen Spin-Kombinationen der Teilchen. Nun kann man errechnen, dass die Wahrscheinlichkeit für eine gegenläufige Richtung der Drehmomente bei 6 von 8 Spin-Kombinationen 1/3, bei den übrigen zwei 1 betragen muss. Die Bellsche Ungleichung besagt deshalb, dass die Wahrscheinlichkeit für eine gegenläufige Spinrichtung größer oder gleich 1/3 betragen müsste, wenn die Spinzustände schon vor der Messung durch verborgene Variablen festgelegt wären. Die experimentelle Überprüfung ergibt jedoch durchgehend eine Statistik von 1/4.
Bells Experiment besagt nicht, dass verborgene Variablen nicht existieren, wohl aber, dass sie, wenn sie existieren, nicht-lokal sein müssen. Nun hängt das Ergebnis einer Messung von Partikel 2 nicht-lokal vom Ergebnis einer Messung von Partikel 1 ab. Aber: Das Ergebnis einer Messung von Partikel 2 hängt nicht davon ab, ob eine Messung an Partikel 1 vorgenommen wurde. Wenn wir beispielsweise bei einem Teilchen einen positiven Spin gemessen haben, wissen wir zwar, dass das verschränkte Teilchen (zur gleichen Zeit relativ zum Verschränkungsort) einen negativen Spin haben muss, wir wissen aber nicht, ob dieser negative Spin eine Folge unserer Messung ist oder ob der bei uns gemessene positive Spin eine Folge einer vorhergehenden Messung des anderen Teilchens ist. Aus diesem Grund ist eine Informationsübertragung trotz Nicht-Lokaltiät nicht möglich; die SRT wird nicht verletzt.
Eine weitere Einschränkung der Wert-Definiertheit wird durch das Kochen-Specker-Theorem gegeben. Aus der mathematischen Beschaffenheit des der Quantenmechanik zugrunde liegenden Hilbertraumes (ein vollständiger Vektorraum mit Norm und Metrik) wird abgeleitet, dass, wenn Eigenschaften als Vektoren mit der Länge 1 beschrieben werden, jedes Quantensystem eine unendliche Zahl von gegenseitig inkompatiblen Eigenschaften aufweist. Zwei Eigenschaften sind dann inkompatibel, wenn die Definiertheit der einen Eigenschaft nur bei Nicht-Definiertheit der anderen möglich ist.  Das KS-Theorem beweist, dass sich in Hilberträumen mit drei oder mehr Dimensionen die Wertdefiniertheit und die Nichtkontextualität von Observablen ausschließen. Eigenschaften sind nicht kontextuell, wenn sie unabhängig vom Kontext der Messung sind. Kontextuelle Variablen sind hingegen vom Aufbau der Messung abhängig.

 

Verschiedene Interpretationsmöglichkeiten

Nun steht man vor der Alternative: Entweder interpretiert man den Zustandsvektor der Quantenmechanik nicht-realistisch und reduziert Naturgesetze zu reinen epistemischen Vorhersagealgorithmen. Oder man betrachtet die Quantenmechanik als unvollständige Theorie, die man durch eine nicht-lokale Mechanik mit kontextuellen Variablen ersetzt, die in keinem Widerspruch zu den (experimentell sehr genau bestätigten) Gesetzen der Quantenmechanik und der (die SRT einbeziehende) Quantenfeldtheorie steht. Die erste Alternative führt uns wieder zurück zu Kant, auf den Carl Friedrich von Weizsäcker seine Interpretation der Quantenmechanik aufbaut. Die Wirklichkeit an sich ist für uns demnach nicht erkennbar, nur, wie sie sich einem erkennenden Subjekt präsentiert.  Wenn der Standpunkt des Subjekts aber prinzipiell nicht auf eine Objektsprache zurückführbar ist, kann man aber auch keine Aussage darüber treffen, ob die wirkliche Welt kausal geschlossen ist oder nicht. Die Irreversibilität jedes Erkenntnisprozesses würde jede allgemein gültige, vollständige und zeitumkehrinvariante Beschreibung der Wirklichkeit unmöglich machen. Die Argumente der praktischen Vernunft für die menschliche Freiheit hätten folglich Priorität gegenüber naturwissenschaftlichen Kausalgesetzen.
Die zweite Möglichkeit wurde von Louis-Victor De Broglie eingeschlagen, eine Theorie später von David Bohm ausgearbeitet. Bohm deutet die Quantenmechanik ontologisch, er postuliert, dass ein Elektron beispielsweise sowohl aus einer nicht-lokalen Welle als auch aus einem lokalen Teilchen besteht, wobei das Teilchen keiner ontologischen Ortsunschärfe unterworfen ist. Der Doppelspaltversuch wird so erklärt, dass das Teilchen nur durch einen Spalt fliegt, während das Quantenfeld durch beide Spalten fortschreitet. Oft wird salopp gesagt, das Teilchen „reite“ auf einer Welle.
Das grundlegende Problem der Bohmschen Mechanik ist, dass sie komplizierter ist und einen geringeren Erklärungsgehalt besitzt als die Quantenmechanik in nicht-realistischer Interpretation. Außerdem ist sie in ihrer bisherigen Form erwiesenermaßen unvollständig, da bestimmte Vorhersagen mit experimentellen Messdaten nicht übereinstimmen (Englert et. al., 1992). Bohm kann außerdem a) die instantane Wechselwirkung zweier Teilchen nicht erklären, b) muss er einen absoluten Raum einführen, was eine grundlegende Modifikation der Relativitätstheorie erfordert, c) ist es nicht mehr möglich, eine der Quantenfeldtheorie ähnlichen Einbeziehung der SRT vorzunehmen, wodurch der große Erklärungsgehalt der Quantenfeldtheorie verloren geht. Können wir trotzdem daran festhalten? Richard Swinburne schlägt vier Kriterien vor, die wir anwenden, um herauszufinden, ob ein vorgeschlagenes Gesetz tatsächlich ein Naturgesetz ist:
(1) Es lässt uns (mit Präzision) viele und viele verschiedene Ereignisse erwarten, die wir beobachten (und wir beobachten keine Ereignisse, deren Nichtvorhandensein es und erwarten lässt)
(2) Das vorgeschlagene Gesetz ist einfach [d.h. es entspricht dem Ockhamschen Sparsamkeits-prinzip, macht also so wenig ontologische Annahmen wie möglich bzw. lässt sich auf möglichst wenige und einfache mathematische Relationen zurückführen, J.G.]
(3) Es fügt sich gut in das vorhandene Wissen ein.
(4) Wir würden diese Ereignisse sonst nicht erwarten (d.h. es gibt kein konkurrierendes Gesetz, welche uns diese Ereignisse erwarten lässt und welches die Kriterien (1-3) ebenso gut erfüllt wie das vorgeschlagene).

Aufgrund der eben genannten Kritikpunkte sieht man, dass die Bohmsche Mechanik (in ihrem jetzigen Entwicklungsstand) in Bezug auf diese Kriterien schlecht abschneidet, außer möglicherweise bei Kriterium (3), da sie sich im Gegensatz zur Kopenhagener Interpretation besser in „vorhandenes Wissen“ d.h. den Realismus der klassischen Physik einfügt und eine deterministische Beschreibung der Wirklichkeit zur Verfügung stellt.
 Neben Weizsäcker (der die Kopenhagener Interpretation weiterentwickelt) und Bohm existieren noch andere Interpretationsmöglichkeiten der Quantenmechanik. Auf Everetts Viele-Welten-Theorie soll hier nicht weiter eingegangen werden, da sie nach Ansicht des Autors dem ontologischen Sparsamkeitsprinzip widerspricht. Die Dekohärenztheorie als Ergänzung zur Kopenhagener Interpretation verdient eigentlich, dass auf sie näher eingegangen wird, da sie die Möglichkeit in sich birgt, die kausale Geschlossenheit der makroskopischen Welt trotz Nicht-Realismus auf Quantenebene aufrechtzuerhalten. Eine ausführliche Berücksichtigung dieser Theorie würde aber den Rahmen dieser Arbeit sprengen.

 

Fazit

Die Quantenmechanik ist eine empirisch (d.h. durch experimentelle Überprüfung der von ihr gemachten Vorhersagen) sehr präzise bestätigte physikalische Theorie; die realistische Interpretation bereitet aber aufgrund des nicht-reellen Zustandsvektors und aufgrund der Unmöglichkeiten einer nicht-kontextuellen Werte-Definiertheit von Eigenschaften enorme Schwierigkeiten.  Physikalische Theorien lassen sich gemäß Karl Popper hypothetisch-realistisch oder gemäß einem strukuralistischen Theorienkonzept rein instrumentell deuten. Stefan Bauberger schlägt ein Verständnis von Naturwissenschaft vor, das zwischen diesen beiden Positionen liegt: „Naturwissenschaftliche Theorien erkennen die Wirklichkeit (nur) unter der Form der Vorhersagbarkeit.“  Durch dieses Konzept können auch nicht-realistische Interpretationen der Quantenmechanik einbezogen werden, ohne dass der Anspruch verloren geht, Aussagen über die Wirklichkeit treffen zu können. Da aber, wie dies Kant bereits erkannte, die Wirklichkeit immer nur durch unsere Verstandeskategorien (von welchen eine die Kausalität darstellt) geordnet wahrgenommen werden kann, ist es nicht möglich, Theorien aufzustellen, die einen Anspruch erheben, mehr als ein sich der Wirklichkeit annäherndes Vorhersagemodell zu sein.
 Reine Vorhersagbarkeit impliziert nicht automatisch einen Determinismus, da sie auch eine probabilistische Vorhersagbarkeit sein kann.  So lange es nicht möglich ist, ein System vollständig zu beschreiben (wie dies beispielsweise die Bohmsche Mechanik in Anspruch nimmt) und daher keine vollständige Vorhersagbarkeit gewährleistet werden kann, bleibt die strenge Kausalität eine rein metaphysische Theorie. Physikalische Theorien, wie wir sie kennen, sind immer nur Beschreibungsmodelle, die außerdem nur einen isolierten Teil der Wirklichkeit beschreiben. Es ist bisher auch nicht gelungen, die vier bekannten Wechselwirkungen in einer Theorie zu vereinheitlichen. Selbst Stephen Hawking hat im Jahr 2002 unter Bezugnahme auf den Gödelschen Unvollständigkeitssatz bei seinem berühmten Vortrag "Gödel and the end of physics" bekannt, seine Meinung in Bezug auf eine grand unified theory geändert zu haben und nicht mehr an die Möglichkeit einer solchen Vereinheitlichung zu glauben.
 Die wissenschaftstheoretische Auseinandersetzung mit dem Kausalitätsprinzip lässt erkennen, dass die strenge Kausalität nicht und möglicherweise nie durch physikalische Theorien aufgezeigt oder bewiesen werden kann. Durch die erkenntnistheoretische Einschränkung wird die Möglichkeit zur metaphysischen Auseinandersetzung eröffnet, bei der sich, ob durch Bewusstsein, Freiheit oder Ethik, zahlreiche Argumente auftun, die für eine Welt sprechen, die kausal aufgebaut ist, aber auch Lücken in der kausalen Geschlossenheit aufweist. Diese Lücken können für die Leib-Seele-Debatte enorm wichtig sein, indem sie dualistische Theorien nach der materialistischen Blütezeit wieder salonfähig machen, und schließlich ein Fundament für eine Theologie legen, die darauf aufbaut, dass Gott den Menschen als freies Wesen erschaffen hat.

 


 
Literaturverzeichnis


BAIN, Jonathan, Lecture Notes: Philosophy of Quantum Mechanics, New York 2007. http://ls.poly.edu/~jbain/philqm/ (01.10.08)

BAUBERGER, Stefan, Was ist die Welt? Zur philosophischen Interpretation der Physik, Stuttgart 22005.

BORN,  Max, Ist die klassische Mechanik tatsächlich deterministisch?, in: Phys. Blätter 11, Mosbach/Baden 1955, 49-54.

EXNER, Franz, Vorlesungen über die physikalischen Grundlagen der Naturwissenschaften, Leipzig 21922.

HELD, Carsten, The Kochen-Specker Theorem, in: Zalte, Edward (Hrsg.), The Stanford Encyclopedia of Philosophy (Winter 2003 Edition).

HUND, F., Grundbegriffe der Physik. Mannheim 1969.

MALIN, Shimon, Dr. Bertlmanns Socken. Wie die Quantenmechanik unser Weltbild verändert, Hamburg 2006.

MÜLLER, Max / HALDER, Alois, Kleines Philosophisches Wörterbuch, 91981.

PLANCK, Max, Vorträge und Erinnerungen, Stuttgart 51949.

POINCARÉ, H., Wissenschaft und Hypothese, Leipzig 1914.

SCHEIBE, Erhard, Die Philosophie der Physiker, München 2006.

SCHRÖDINGER, Erwin, Was ist ein Naturgesetz? Beiträge zum naturwissenschaftlichen Weltbild, München 1987.

SWINBURNE, Richard, Gibt es einen Gott?, Heusenstamm 2006.

 


Fußnoten

  Vgl. Kant, Immanuel, Kritik der reinen Vernunft, B106.
  Müller / Halder 1981, 141.
  Vgl. Scheibe 2006, 209.
  Bauberger 2005, 65.
  Die ART beispielsweise beschreibt nur eine der vier Wechselwirkungen, nämlich die Gravitation.
  vgl. "Essai philosophique sur des Probabilités"
  Bauberger 2005, 88.
  Hund 1969, 38.
  Vgl. Scheibe 2006, 232.
  Poincaré 1914, 56f.
  Planck 1949, 254f.
  Ebd.
  Ebd.
  Scheibe 2006, 233.
  Exner 1922, 669.
  Scheibe 2006, 236.
  Exner 1922, 681.
  Vgl. Exner 1922, 669.
  Schrödinger 1987, 14f
  Born 1955, 51.
  Vgl. Scheibe, 238.
  Ebd., 239.
  Vgl. Held 2003.
  In der einfachen Beweisform nimmt man 31 binäre Eigenschaften eines Quantensystems und ordnet diese Eigenschaften zu sich überschneidenden Tripeln. Nun lässt sich rein logisch beweisen, dass es widersprüchlich ist, allen 31 Eigenschaften gleichzeitig einen Wahrheitswert zuzuordnen. Dennoch ergibt die Messung jedes einzelnen Tripels einen solchen Wahrheitswert. Vgl. Bauberger 2005, 159f.
  Vgl. Bauberger 2005, 178.
  Swinburne 2006, 26.
  Skript zur Verlesung „Wissenschaftstheorie“ im Sommersemester 2007 an der Hochschule für Philosophie in München, 60. http://bauberger.net/texte/Wissenschaftstheorie.pdf (14.10.08).
  Vgl. ebd.

LAST_UPDATED2