Johannes Herlet, 2017-2019 Grenzbereiche der modernen Physik

36
Johannes Herlet, 2017-2019 Grenzbereiche der modernen Physik 1. Grenzen der heutigen Physik 2. Vorstoß ins Kleinste, Planck-Skala 3. Schwarze Löcher 4. Symmetrie der Naturgesetze, Erhaltungssätze 5. Das Standardmodell der Teilchenphysik und seine Defizite 6. GUT Theorien und SUSY 7. Quantentheorien der Gravitation 8. Physikalische Theorien der Kosmologie 9. Der Energiebegriff der modernen Physik, Vakuum-Energie und dunkle Energie 10. Der Zeitpfeil 11. Naturkonstanten und Feinabstimmung 12. Physik und Philosophie 1. Grenzen der heutigen Physik Das Universum wird beherrscht von der Gravitationskraft, der einzigen Naturkraft die auf große Entfernungen wirkt. Die starke und schwache Wechselwirkung wirken nur im Bereich der Atomkerne, auch die elektromagnetischen Kräfte haben nur eine begrenzte Reichweite und Wirkung, da sich positive und negative Ladungen im Großen neutralisieren. Auf kosmologischer Ebene werden die physikalischen Gesetzmäßigkeiten daher durch die Allgemeine Relativitätstheorie (ART) beschrieben Das physikalische Geschehen im Kleinen, auf atomarer und subatomarer Ebene dagegen wird beherrscht von den drei anderen Naturkräften und den Gesetzen der Quantentheorie (QT). Die Gravitationskraft als die bei weitem schwächste Naturkraft ist vernachlässigbar bei Betrachtung solcher Systeme mit geringer Masse oder Energie. (Masse und Energie sind äquivalent, in einander umwandelbar, nach Einsteins berühmter Formel E=mc 2 , wobei c die Lichtgeschwindigkeit ist.). Die Quantentheorie hat ihren vorläufigen Abschluss im sogenannten Standardmodell der Elementarteilchenphysik (SM) gefunden, welches trotz großer Erfolge auch noch einige Defizite aufweist (siehe Kap.5). Für physikalische Prozesse, bei denen große Mengen von Masse-Energie auf kleinstem Raum verdichtet und daher sehr hohe Temperaturen und Teilchen-Energien erreicht werden, stößt man jedoch an Grenzen dieser Theorien. Bei Bedingungen wie sie im Universums kurz nach dem Urknall vorherrschten, wird eine Vereinheitlichung der elektroschwachen und starken Kraft postuliert, für diese sogenannte GUT-Theorie (Grand Unified Theory) gibt es heute aber nur verschiedene Ansätze, keine experimentellen Beweise und viele ungelöste Fragen. Für noch höheren Energiedichten, den Bereich der sogenannten Planck-Skala, geraten Quantentheorie und ART zueinander in Widerspruch. Gesucht wird hier nach einer vereinheitlichten Quantentheorie der Gravitation, welche diesen Widerspruch auflöst und beide Theorien, Quantentheorie und ART, als Grenzfälle enthält. Auch für eine solche Theorie gibt es interessante, aber unbewiesene Ansätze. Eine solche Quantentheorie der Gravitation sollte insbesondere ermöglichen, das physikalische Geschehen am Urknall und im Inneren Schwarzer Löcher zu beschreiben. Für beide Fälle ergibt sich nach der ART eine Singularität der Raumzeit, d.h. ein Zustand unendlich hoher Energiedichte in einem „Punkt“ der Raumzeit, ein Zustand der mathematisch formulierbar, aber physikalisch aller Erfahrung nach unsinnig ist.

Transcript of Johannes Herlet, 2017-2019 Grenzbereiche der modernen Physik

Johannes Herlet, 2017-2019

Grenzbereiche der modernen Physik1. Grenzen der heutigen Physik2. Vorstoß ins Kleinste, Planck-Skala3. Schwarze Löcher4. Symmetrie der Naturgesetze, Erhaltungssätze5. Das Standardmodell der Teilchenphysik und seine Defizite6. GUT Theorien und SUSY7. Quantentheorien der Gravitation8. Physikalische Theorien der Kosmologie9. Der Energiebegriff der modernen Physik,

Vakuum-Energie und dunkle Energie10.Der Zeitpfeil11. Naturkonstanten und Feinabstimmung12. Physik und Philosophie

1. Grenzen der heutigen PhysikDas Universum wird beherrscht von der Gravitationskraft, der einzigen Naturkraft die auf große Entfernungen wirkt. Die starke und schwache Wechselwirkung wirken nur im Bereich der Atomkerne, auch die elektromagnetischen Kräfte haben nur eine begrenzte Reichweite und Wirkung, da sich positive und negative Ladungen im Großen neutralisieren. Auf kosmologischer Ebene werden die physikalischen Gesetzmäßigkeiten daher durch die Allgemeine Relativitätstheorie (ART) beschrieben

Das physikalische Geschehen im Kleinen, auf atomarer und subatomarer Ebene dagegen wird beherrscht von den drei anderen Naturkräften und den Gesetzen der Quantentheorie (QT). Die Gravitationskraft als die bei weitem schwächste Naturkraft ist vernachlässigbar bei Betrachtung solcher Systeme mit geringer Masse oder Energie. (Masse und Energie sind äquivalent, in einander umwandelbar, nach Einsteins berühmter Formel E=mc2, wobei c die Lichtgeschwindigkeit ist.). Die Quantentheorie hat ihren vorläufigen Abschluss im sogenannten Standardmodell der Elementarteilchenphysik (SM) gefunden, welches trotz großer Erfolge auch noch einige Defizite aufweist (siehe Kap.5).

Für physikalische Prozesse, bei denen große Mengen von Masse-Energie auf kleinstem Raum verdichtet und daher sehr hohe Temperaturen und Teilchen-Energien erreicht werden, stößt man jedoch an Grenzen dieser Theorien. Bei Bedingungen wie sie im Universums kurz nach dem Urknall vorherrschten, wird eine Vereinheitlichung der elektroschwachen und starken Kraft postuliert, für diese sogenannte GUT-Theorie (Grand Unified Theory) gibt es heute aber nur verschiedene Ansätze, keine experimentellen Beweise und viele ungelöste Fragen. Für noch höheren Energiedichten, den Bereich der sogenannten Planck-Skala, geraten Quantentheorie und ART zueinander in Widerspruch. Gesucht wird hier nach einer vereinheitlichten Quantentheorie der Gravitation, welche diesen Widerspruch auflöst und beide Theorien, Quantentheorie und ART, als Grenzfälle enthält.

Auch für eine solche Theorie gibt es interessante, aber unbewiesene Ansätze. Eine solche Quantentheorie der Gravitation sollte insbesondere ermöglichen, das physikalische Geschehen am Urknall und im Inneren Schwarzer Löcher zu beschreiben. Für beide Fälle ergibt sich nach der ART eine Singularität der Raumzeit, d.h. ein Zustand unendlich hoher Energiedichte in einem „Punkt“ der Raumzeit, ein Zustand der mathematisch formulierbar, aber physikalisch aller Erfahrung nach unsinnig ist.

2. Vorstoß ins Kleinste, Planck Skala

Schon Planck erkannte, dass man durch geeignete Kombination der Naturkonstanten Lichtgeschwindigkeit c, Plancksches Wirkungsquantum h und Gravitationskonstante G eine Länge, eine Zeitspanne und eine Masse definieren kann, die von physikalischem Interesse sein könnten. Diese sogenannte Planck-Skala markiert – wie man später erkannte - eine Grenze für die Anwendbarkeit der bekannten Gesetze der Physik.

Charakteristische Teilchenenergie und Planck-Skala: Die Unschärfe möglicher Manifestationen eines Objekts als Teilchen oder Welle wird durch die Heisenbergsche Unbestimmtheitsrelation beschrieben. Danach ist die einem Teilchen zugeordnete Quantenwellenlänge umso kleiner, je größer Masse und Impuls und damit auch Energie des Teilchens sind. Umgekehrt kann man zu jedem noch so kleinen Raumvolumen einen Energiebetrag (mc2) angeben, welcher der Ruhemasse m eines Teilchens entspricht, das gerade in dem Raumvolumen lokalisierbar wäre, also gerade eine in das Raumvolumen passende Quantenwellenlänge hat. Jedem Raumzeit-Volumen des frühen Kosmos lässt sich so eine charakteristische Teilchenenergie (mc2) zuordnen, die umso größer ist, je näher man dem Urknall kommt. Dies gilt jedoch nur bis zu einer gewissen Grenze, die durch die sogenannte Planck-Skala definiert ist. Unterhalb dieser Grenze sind Teilchen nicht mehr lokalisierbar und im Rahmen der heutigen Physik auch nicht mehr beschreibbar, da sie gemäß ART zwangsläufig in die Singularität eines Schwarzen Loches kollabieren würden.

Die Planck-Länge lp (~10−35 m) definiert dabei eine Grenze für die Quantenwellenlänge eines Objekts, unterhalb der dieses auf Grund der Unschärferelation mindestens die Planck-Masse mp (~10-8 kg) haben müsste und damit automatisch zu einem schwarzen Loch, also nach der ART in eine Singularität, kollabieren würde. Ein solches „Planck-Teilchen“ entzöge sich damit der Beschreibung durch die bekannte Physik. Die Planck-Länge ist winzig klein, sie ist umso viel kleiner als der Durchmesser eines Haares, als dieser kleiner ist als das beobachtbare Universum, sie ist auch einen Faktor 100 Trillionen (1020) mal kleiner als der Durchmesser des Protons und damit weit jenseits einer experimentellen ZugänglichkeitDie Planck-Zeit wird definiert als die Zeit, die ein Lichtstrahl braucht, um die Planck-Länge zu durchlaufen (~10-43 s). Die Planck-Masse hat zwar eine vorstellbare Größenordnung von etwa 1/10 der Masse eines typischen Sandkorns von 0,5 mm Durchmesser, die Planck-Masse in einem Würfel mit der Seitenlänge der Planck-Länge (~ 10-105 m³) hätte allerdings die gleiche Dichte wie 10 Trilliarden (1022) Sonnen komprimiert auf die Größe eines Protons.

Planck-Länge, Zeit und Masse lassen sich durch die fundamentalen Naturkonstanten (G, h, c) definieren. Dies zeigt folgende Ableitung: Befindet sich ein Teilchen in einem Raumgebiet mit dem Durchmesser ∆x, so ist aufgrund der Unschärferelation sein Impuls nur bis auf ∆p genau bestimmt, wobei ℏℏℏℏ∆x ∆p >= /2 gilt ℏ( = reduziertes Plancksche Wirkungsquantum). Das bedeutet, dass der Impuls mindestens

Werte im Bereich bis ℏℏℏℏ∆p >= /2∆x annehmen muss. Selbst für ein Teilchen ohne invariante Ruhemasse (z.B. ein Lichtphoton) ist damit eine Energie E und daher auch eine äquivalente Mindestmasse m verbunden, wobei (1): mc2

ℏℏℏℏ = E = ∆pc = c/ 2∆x. Befindet sich die Masse m in einem Raumgebiet mit einem Radius kleiner als ihr Schwarzschildradius (2): rs = (2Gm)/c2 , so wird sie zum Schwarzen Loch. Das ist durch die Wahl eines hinreichend kleinen x erreichbar, denn mit einer Verkleinerung von ∆x wächst ∆p und damit auch m und r bis schließlich r~ =∆x wird. Diese Situation entzieht sich jedoch einer Beschreibung durch die bekannte Physik. Man erhält die Formel für die Planck-Länge lp ℏℏℏℏ = √( G/ c3) und Planck-Masse mp ℏℏℏℏ= √( c/ G) der Größenordnung nach, indem man r = ∆x setzt und die beiden Gleichungen (1) und (2) nach r und m auflöst.

Für ein Lichtteilchen (Photon) der Frequenz f und Wellenlänge λ gilt E = h .f und λ f = c. Mit E = mc2 ergibt sich für die Beziehung zwischen Wellenlänge und äquivalenter Masse: λ = h / mc. Setzt man nun λ mit dem Schwarzschildradius für die Masse m gleich (s. oben), so ergibt sich m= mp = √(h.c / G). D.h. schon die Lokalisierung eines masselosen Photon innerhalb eines Planck-Länge würde dort ein Schwarzes Loch entstehen lassen.

Für Teilchen mit Ruhemasse m ergibt sich eine analoge Ableitung mittels der Compton-Wellenlänge des Teilchens. Die Compton-Wellenlänge ist eine für jedes Teilchen mit Masse charakteristische Größe. Sie definiert die Grenze für die Ortsbestimmung des Teilchens und kann daher als Größenordnung für die lineare Ausdehnung der Elementarteilchen angesehen werden. Ein Teilchen der Ruhemasse m0 hat eine Compton-Wellenlänge λC = h /(c· m0). Mit wachsender Teilchenmasse schrumpft λC , während der Schwarzschildradius anwächst und bei einer bestimmten Masse gleich λC wird. Bei dieser „Planck-Länge“ ist die Grenze maximaler Auflösung erreicht. Teilchen mit kleinerer Compton-Wellenlänge kollabieren zu einem Schwarzen Loch, verstecken sich gewissermaßen innerhalb des SL, das sie umgibt.

Mittels der Planck-Masse kann man die Planck-Energie Ep = mpc2 = ~1019 GeV definieren und die Planck-Temperatur Tp , die sich bei einer mittleren Teilchenenergie Ep ergeben würde: Tp= Ep/ kB = ~1032 K (kB = Boltzmann-Konstante). Der einzige heute bekannte Prozess, bei dem vergleichbare Teilchenenergien und Temperaturen aufgetreten sind, ist das Universum ungefähr eine Planck-Zeiteinheit nach dem Urknall. Auch für weitere physikalische Größen lassen sich Planck-Einheiten auf Basis der fundamentalen Naturkonstanten definieren. So lässt sich mittels der elektrischen Feldkonstanten ε0 auch eine Planck-Ladung definieren, qp = √(ℏ c 4π ε0) ~ 10-18 Coulomb, welche die Bedingung erfüllt, dass die Gravitationskraft zwischen zwei Planck-Massen und die elektromagnetische Kraft zwischen zwei Planck-Ladungen gleich stark sind. Die unterschiedliche Stärke dieser Kräfte in unserer Welt ist die Folge davon, dass ein Proton bzw. ein Elektron eine Ladung von etwa 0,085 Planck-Ladungen besitzt, während ihre Massen um 19 bzw. 22 Größenordnungen kleiner als die Planck-Masse sind. Die Frage: „Warum ist die Gravitation relativ so schwach?“ ist also äquivalent zu der Frage: „Warum haben die Elementarteilchen so geringe Massen?“

Die Planck-Einheiten bilden ein System natürlicher Einheiten für die physikalischen Größen. In Planck-Einheiten ausgedrückt haben diese Naturkonstanten allesamt den Zahlenwert 1, was viele Berechnungen numerisch vereinfacht.

Planck-Einheiten und UrknallDie Planck-Zeit definiert auch jene Grenze für die zeitliche Annäherung an den Urknall,unterhalb der sich im Rahmen der heutigen Physik und bestehender Urknall-Modelle sowie der ansatzweise entwickelten GUT-Theorien (s. Kap. 5) keine Aussagen mehr möglich sind. Man kann jedoch abschätzen, wie groß das Volumen des beobachtbaren Universums von heute 93 Milliarden Lichtjahren Durchmesser und bis zu einer Billion Galaxien unmittelbar nach dem Urknall (also zur Planck-Zeit) gewesen sein muss.

Das beobachtbare Universums bei maximaler Verdichtung (Planck-Dichte): Die Ruhemasse baryonischer Materie im beobachtbaren Universum beträgt nach heutigen Abschätzungen (siehe „Das Universum-Teil 2“) etwa ~ 1054 [Kg] = ~ 1062 Planck-Massen (a 10-8 kg); Das Planck-Volumen beträgt (10-35)3 = 10-105 m³; Das Volumen der auf Planck-Dichte verdichteten baryonischen Materie des beobachtbaren Universums beträgt demnach das 1062- fache des Planck-Volumens bzw. 10-43 m³ (etwa das Volumen eines mittleren Atomkerns).

3. Schwarze Löcher

Die erste, bereits 1916 von Karl Schwarzschild gefundene Lösung der Feldgleichungen der ART sagt die Existenz Schwarzer Löcher (SL) voraus. Danach kann die Massendichte eines Körpers so hoch werden, und die Raumzeit in Folge so stark gekrümmt, dass kein Licht und damit erst recht auch keine Materie mehr entkommen kann, sobald diese erst einmal den sogenannten Ereignishorizont des SL überschritten haben.

Der Schwarzschild-Radius eines (nicht-rotierenden) Schwarzen Loches ist der Abstand vom Mittelpunkt des SL zum Ereignishorizont und markiert gleichzeitig den Grenzradius, ab dem eine beliebige Masse M zu einem SL kollabiert. Er ist direkt proportional zur Masse M des Schwarzen Loches: r s = 2 G M /c2 . Dies folgt aus der Bedingung, dass im Abstand rs die Fluchtgeschwindigkeit v einer Masse m gleich der Lichtgeschwindigkeit c wird, also Ekin = ½ m/c2 = GmM /rs = Epot. Der Schwarzschildradius für ein Schwarzes Loch von einer Sonnenmasse beträgt etwa 3 km, für das einer Erdmasse etwa 9 Millimeter.

Die Existenz Schwarzer Löcher gilt heute als empirisch gesichert. Da ein SL kein Licht aussenden oder reflektieren kann, ist es unsichtbar und kann nur indirekt über die Effekte der enormen Raumzeitkrümmung auf Massen in der Nähe des Ereignishorizonts beobachtet werden. Schwarze Löcher zeigen sich also nur durch ihre gravitative Wirkung auf umgebende sichtbare Materie, z.B. den Bahnkurven und Lichtspektren nahe umlaufender Sterne oder aus der Strahlung, die von der in ein SL stürzende Materie ausgeht.

So wird aufgrund der hohen Rotationsgeschwindigkeit von Sternen um das Zentrum unserer Galaxis auf ein Schwarzes Loch dort von etwa 4 Millionen Sonnenmassen und 16-fachem Sonnenradius geschlossen. Dieses SL ist auch Quelle einer starken Radiostrahlung, welches uns aus einer Sagittarius A* genannten Region im Sternbild Schütze erreicht. Es verbirgt sich hinter den dichten Gas- und Staubwolken in der Zentralebene der Milchstraße, die aber von Radio-, Infrarot- und Röntgen-Strahlen durchdrungen werden. Solche super-massiven Schwarze Löcher von millionen- bis milliardenfacher Sonnenmasse werden auch im Zentrum der meisten anderen Galaxien vermutet. Sie sind vermutlich aus den Schwarzen Löchern entstanden, die von den ersten Riesensternen des Universums übrig blieben. Diese bildeten die gravitative Keimzelle von Galaxien und sind über die Jahrmilliarden durch Materiezufluss (z.B. auch durch Kollisionen und Verschmelzungen) zu ihrer heutigen Größe angewachsen.

Stellare Schwarze Löcher stellen den Endzustand der Entwicklung massereicher Sterne dar.Man vermutet bis zu einer Milliarde solcher SL allein in unserer Galaxis. Jüngst wurde der Zusammenstoß und das Verschmelzen zweier stellarer SL von 29 bzw. 36 Sonnenmassen durch die dabei entstehenden Gravitationswellen nachgewiesen. Ein materielles Objekt (z.B. Stern) kollabiert zu einem schwarzen Loch, wenn die Masse-Energiedichte in seinem Inneren so groß wird, dass die resultierende Gravitationskraft den Gegendruck der Materie endgültig überwindet. Bei Überschreitung dieser kritischen Dichte setzt sich der Kollaps unaufhaltsam fort, die Massendichte im Inneren des Schwarzen Loches geht gegen unendlich, im Zentrum entsteht der ART zu Folge eine sogenannte Singularität der Raumzeit.Die Dichte, bis zu der Materie komprimiert werden muss, um durch ihre Gravitationskraft zu einem SL zu kollabieren, ist umgekehrt proportional zum Quadrat der Masse. Die kritische Dichte für den Gravitationskollaps zum Schwarzen Loch ist also umso höher, je kleiner die Masse des Objektes ist. Für den Kollaps eines Sterns zu einem SL müssen erst verschiedene Gegenkräfte überwunden werden, der Gasdruck und Strahlungsdruck und zuletzt (bei einem Neutronenstern) der quantenphysikalisch (Pauli Prinzip) begründete, abstoßende Druck in entarteter Materie. (Zur Entstehung stellaren SL, siehe Aufsatz „Das Universum, Teil 1“).

Computer-Simulation eines nicht-rotierenden SL von 10 Sonnenmassen aus 600 km Abstand. Die Milchstraße im Hintergrund erscheint durch die Raumzeitkrümmung verzerrt (Wikipedia)

Theorie Schwarzer Löcher: Formell ergibt sich ein Schwarzes Loch (SL) aus einer speziellen Lösung der Allgemeinen Relativitätstheorie (ART). Die ART erlaubt Schwarze Löcher beliebiger Masse, bis zu einer theoretischen Untergrenze von 10-8 kg (Planck-Masse), der Durchmesser eines solchen SL wäre dann 10-35 m (Planck-Länge). Gemäß ART befindet sich im Inneren des SL eine Singularität der Raumzeit an der die Krümmung der Raumzeit und die Energiedichte unendlich groß werden. Die Zeit wird bei Annäherung an die Singularität (von außen gesehen) unendlich verlangsamt. Von Innen gesehen stürzen aber nicht nur Materieteilchen und Lichtphotonen in endlicher Eigenzeit in die Singularität, sondern der Raum selbst, also jeder Raumpunkt innerhalb des Horizonts fällt in die Singularität hinein. Diese Singularität ist jedoch das mathematische Ergebnis einer Theorie, die vermutlich bereits bei Annäherung an diese Singularität an ihre Grenzen stößt.Was mit der Materie im Inneren eines SL geschieht, wissen wir im Grunde genommen nicht!

Ein SL kann geometrisch als ein tiefer Krater in der Raumzeit veranschaulicht werden. Je größer die Masse des SL, desto geringer ist der Durchmesser des Schlundes im Vergleichzur Eindringtiefe in die Raumzeit. Es ist aber keine in sich abgeschlossene Raumzeit-Kugel.

Makro-physikalisch ist ein Schwarzes Loch eindeutig durch nur 3 Größen bestimmt:Masse, Drehimpuls und elektrische Ladung. („No-Hair-Theorem“ ). Dieses Theorem ist streng genommen nur eine begründete Vermutung. Für die möglichen Raumzeit-Geometrien einer SL-Region gibt es entsprechende Lösungen (Metriken) der ART.

Die Schwarzschild-Metrik für ungeladene, nicht-rotierende SL wurde bereits 1916 von Karl Schwarzschild gefunden. Aus allgemeinen Überlegungen zur Drehimpulserhaltung, kann man jedoch schließen, dass alle Schwarzen Löcher rotieren, zumindest zum Zeitpunkt ihrer Entstehung, z.B. beim Kollaps eines hinreichend massiven Sternes. Elektrisch geladene SL sind eher nur eine theoretische Möglichkeit. Die wichtige Kerr-Metrik für rotierende und ungeladene SL wurde 1963 von Roy Kerr gefunden und beschreibt wie die Schwarzschild-Metrik eine exakte Lösung der ART. Einige beobachtungsrelevante Phänomene in der Nähe realer (d.h. rotierender) Schwarzer Löcher sind nur mittels dieser Lösung zu verstehen.

So ist die Oberflächenschwerkraft eines rotierenden SL so groß, dass die Raumzeit in unmittelbarer Umgebung des SL (in der sogenannten Ergosphäre) und darin befindliche Objekte, inklusive Licht, mit gedreht werden (Lense-Thirring-Effekt ). Dieser Effekt nimmt mit der Entfernung stark ab. Auf Objekte in einiger Entfernung wirkt nur die Masse des SL gemäß dem Gravitationsgesetz. Würde die Sonne zum SL kollabieren, hätte das keinen Einfluss auf die Umlaufbahn der Erde.

Die Kerr-Metrik ist wesentlich komplizierter als die Schwarzschild-Metrik. Der Radius des (äußeren) Ereignishorizonts beträgt r+ = ½ rs + √((½ rs )2 − a2), mit dem Rotationsparameter a=J/(M c), J=Drehimpuls, M=Masse des SL, rs = Schwarzschildradius = 2 G M /c2. Für a = 0, ergibt sich der Schwarzschildradius (r+ = rs), für a= ½ rs ergibt sich r+ = ½ rs ,d.h. der Ereignishorizont wird mit zunehmender Rotation kleiner. Da die Wurzel nicht negativ werden darf ergibt sich auch eine Obergrenze für den Drehimpuls J = G M2 /c. Der (äußere) Ereignishorizont rotiert dann mit Lichtgeschwindigkeit. Ab dieser Obergrenze würde eine sogenannte (physikalisch unzulässige) „nackte Singularität“ entstehen.

In der Nähe einer SL-Singularität wirken enorm starke Gezeitenkräfte, d.h. auf einen ausgedehnten Körper ist der Kraftunterschied zwischen der dem SL zugewandten Seite und der abgewandten Seite so groß, dass der Körper ab einer gewissen Annäherung an die SL-Singularität unweigerlich zerrissen wird. Letztlich wird alles zerrissen, was eine endliche Ausdehnung hat, auch subatomare Teilchen wie Protonen und Neutronen. Die Gezeitenkräfte am Ereignishorizont sind jedoch umgekehrt proportional zum Quadrat der Masse des SL.Dies bedeutet, dass man bei einem hinreichend massiven SL durch den Ereignishorizont fallen kann, ohne dies zunächst zu bemerken. Im freien Fall spürt man nur die Gezeitenkräfte. Diese sind bei einem super-massiven SL kurz nach Eintauchen unter den Horizont so gering, dass man sie kaum merken würde. Ein durch den Ereignishorizont eines Schwarzen Lochs fallender Körper würde unweigerlich zum Zentrum der Singularität hingezogen ohne jemals zurückkehren zu können. Dies ist die Theorie. Was aber im Inneren eines SL wirklich geschieht, wissen wir nicht, das kann erst eine Quantentheorie der Gravitation klären.

Aus der Ferne würde die Annäherung des Körpers an den Ereignishorizont auf Grund der relativistischen Zeitdilatation immer langsamer und durch die Rotverschiebung des von ihm ausgehenden Lichtes immer langwelliger, Energie-ärmer und damit dunkler wahrgenommen. Aus der Sicht eines äußeren Beobachters überschreitet ein fallendes Objekt niemals sichtbar den Ereignishorizont, es verblasst gleichsam und verabschiedet sich endgültig aus unserer Welt. Von außen gesehen friert die Zeit am Rand des Schwarzen Lochs ein.

Auch beim Kollaps eines Neutronensterns zu einem SL verzerrt die immer weiter ansteigende Gravitation lokal den Raum und den Ablauf der Zeit. Das bedeutet, dass – von einem äußeren Beobachter betrachtet – der Kollaps immer langsamer ablaufen würde und sich das Volumen nie sichtbar auf einen einzelnen Punkt zusammenziehen würde.

Entropie, Temperatur und Wärmestrahlung eines Schwarzen Loches Fällt ein Körper mit einer Entropie S in ein Schwarzes Loch, so kann ein außenstehender Beobachter nur zwei Dinge feststellen: die Entropie außerhalb des Ereignishorizonts hat abgenommen und die Oberfläche und das Volumen des Schwarzen Loches sind größer geworden. Um eine Verletzung des zweiten Hauptsatzes der Thermodynamik auszuschließen, schlug Jacob Bekenstein 1973 vor, die Oberfläche des SL als ein Maß für dessen Entropie zu interpretieren. Bekenstein leitete auch eine Formel für die Entropie eines Schwarzen Loches her. Diese ist proportional zur Oberfläche A seines Ereignishorizonts und sonst nur von Naturkonstanten abhängig. Diese Interpretation wurde kurz darauf von Stephen Hawking durch die theoretische Begründung der Temperatur und Wärmestrahlung Schwarzer Löcher gestützt. Damit erhält man dieVerallgemeinerung des zweiten Hauptsatzes: Die Summe aus gewöhnlicher Entropie eines Systems und der Gesamtfläche seiner Ereignishorizonte kann niemals abnehmen.Insbesondere gilt auch, dass bei Verschmelzung zweier SL die Fläche des neuen Horizontes größer ist, als die Summe der Horizontflächen der beiden kollidierenden SL.

Die Bekenstein-Hawking-Entropie des SL ist: SSL = A kB c3ℏℏℏℏ/ (4 G) = A kB / (4 lp2) mit

ℏder Planck-Länge lp = √( G/c3), d.h. die Entropie ist proportional zur Anzahl der Planck-Flächen lp2 ,die auf Oberfläche des SL passen. Jedes Planck-Quadrat steht sozusagen für eine Entropie-Einheit Dies kann als Hinweis auf die körnige Struktur der Raumzeit angesehen werden. Nach Carlo Rovelli ist dies vielleicht die einzige heute weitgehend akzeptierte Formel, die die Naturkonstanten der Allgemeinen Relativitätstheorie, der Quantentheorie und der Thermodynamik zugleich enthält und damit diese Gebiete zusammenführt.

Schwarze Löcher haben die höchste Entropie aller bekannten physikalischen Systeme gleicher Masse. Jede beliebige Umordnung der Materie in einem Schwarzen Loch lässt dessen makroskopischen Eigenschaften unverändert. Wenn man dem SL weiter Materie zuführt, erhöht das zwar dessen Entropie, vergrößert aber gleichzeitig zwangsläufig auch dessen Masse. Die Entropie eines Systems ist in der statistischen Thermodynamik definiert als Logarithmus der möglichen Umordnungen des Systems unter denen seine makroskopischen Eigenschaften (z.B. Temperatur) unverändert bleiben. Führt man z.B. 2 Gasbehälter gleicher Entropie E (E=kB lnQ) zusammen, so verdoppelt sich das Raumvolumen und die Entropie, da diese für den zusammengelegten Raumbereich durch E2= kB lnQ2 = 2 kB lnQ =2E gegeben ist.

Für ein Schwarzes Loch ist die Entropie der Theorie zufolge aber Oberflächen-proportional. Geht man von der Vorstellung aus, dass die Horizontfläche A eines SL in Elementarflächen Ae geteilt werden kann, und dass jede Elementarfläche Ae einen Freiheitsgrad des SL repräsentiert, der n verschiedene Werte annehmen kann, so ist n A/Ae die Anzahl möglicher Mikrozustände; für die Entropie S ergibt sich S= kB ln n A/Ae = kB A/Ae ln n, also ein Wert proportional zur Horizontfläche A; dies in Übereinstimmung mit obiger Formel für Ae = 4 lp2 ln n .Dies legt nahe, dass die Quanten-Freiheitsgrade eines schwarzen Lochs mit seiner Oberfläche zusammenhängen. Gibt es also keine Quanten-Freiheitsgrade in seinem Inneren? Genaues dazu weiß man heute nicht. Es könnte sein, dass innere Freiheitsgrade einfach von außen nicht zugänglich sind. Oder sie entsprechen eins-zu-eins den Oberflächenfreiheitsgraden. Diese Möglichkeit bezeichnet man auch als Holografisches Prinzip

Hawking erkannte, dass ein SL auf Grund seiner Entropie auch eine Temperatur haben muss und demnach auch eine Schwarzkörperstrahlung, was dem gängigen Bild widerspricht, dass aus dem Schwarzen Loch nichts mehr entweicht. Er begründete dies theoretisch auf Basis der Quantenfeldtheorie und der ART und leitete entsprechende Formeln her.

Die sogenannte Hawking-Strahlung stützt sich auf Theorie der Quantenelektrodynamik, wonach das Vakuum ständig mit Vakuumfluktuationen erfüllt ist. Diese bestehen aus virtuellen Teilchen-Antiteilchen-Paaren, die nach der Unschärferelation für kurze Zeit existieren können. Bei Fluktuationen unmittelbar am Ereignishorizont eines SL, kann es vorkommen, dass nur eines der beiden Teilchen in das SL gerät, das andere aber als reales Teilchen entkommt und damit positive Energie fort trägt. Auf Grund der Energieerhaltung trägt der in das SL fallende Partner entsprechend negative Energie in das SL, was sich (gemäß E=mc2) zu einer Verringerung der Masse des Schwarzen Lochs führt. Die so abgestrahlten Teilchen bestehen überwiegend aus masselosen Photonen, enthalten prinzipiell aber auch einen geringen Anteil massebehafteter Teilchen. Da die Stärke von Vakuumfluktuationen durch eine starke Krümmung der Raumzeit am Horizont begünstigt wird, ist dieser Effekt besonders bei SL geringer Ausdehnung und damit geringer Masse bedeutsam.

Hawking rechnete aus, dass derartige Verlustprozesse am häufigsten Vorkommen, wenn das virtuelle Teilchenpaar in etwa die Quantenwellenlänge (d.h. Größe) des Schwarzschild-Radius hat. Die mittlere Wellenlänge der Hawking-Strahlung entspricht demnach dem Schwarzschildradius. Damit lässt sich die emittierte Strahlungsleistung ausrechnen und die Lebensdauer des SL. Man spricht vom „Verdampfen“ eines Schwarzen Loches. Je kleiner ein SL ist, umso schneller verdampft es. Je größer ein SL, desto länger lebt es. Da die Hawking-Strahlung stellarer oder größerer SL jedoch viel schwächer als die kosmische Hintergrundstrahlung ist, werden diese noch lange Zeit an Masse-Energie zunehmen, bevor sie in ferner Zukunft einmal allmählich verdampfen. Wegen der stärkeren Hintergrundstrahlung ist die Hawking-Strahlung auch (bisher) nicht nachweisbar.

Die Hawking-Strahlung kann auch als Wärmestrahlung interpretiert werden und jedem SL damit auch eine Temperatur zugeordnet werden. Diese Temperatur ist mit etwa 10-6 Grad Kelvin sehr gering, sie ist umso größer je kleiner die Masse des Schwarzen Lochs ist. Carlo Rovelli: „Es gibt noch keine Gleichungen zur Beschreibung des thermischen Schwingens der Raum-Zeit. Schwarze Löcher sind jedoch warm; es sind die an der Oberfläche des SL vibrierenden Raumquanten, die seine Wärme erzeugen.“ Die Zukunft Schwarzer Löcher Je kleiner ein Schwarzes Loch wird, umso stärker wird die Raumzeitkrümmung am Horizont, umso näher rückt dieser an die zentrale Singularität, die von der ART voraus gesagt wird, physikalisch aber vermutlich unsinnig ist. Nach der von einer diskreten, atomaren Raumzeitstruktur auf kleinsten Skalen ausgehenden Schleifen-Quanten-Gravitation (siehe Kap. 7), gibt es aber kein komplettes Verdampfen von Schwarzen Löchern in ferner Zukunft. Diese Überlegungen deuten im Gegenteil darauf hin, dass beim Verdampfen eines Schwarzen Loches bei Erreichen einer kritischen Energiedichte und Raumkrümmung am Horizont, die weitere Verdichtung des Schwarzen Lochs an der Singularität abprallt, der Horizont verschwindet und die Restenergie des Schwarzen Lochs in Form einer Explosion an die Raumzeit zurück gegeben wird. Aber auch die Abkapselung eines Tochteruniversums oder eine Zersplitterung in Raumatome wären nach Martin Bojowald denkbare Alternativen.

Das Informationsparadoxon Schwarzer LöcherGemäß einem fundamentalen Prinzip der Physik sollen alle physikalischen Vorgänge im Prinzip reversibel sei, also im Einklang mit physikalischen Gesetzen auch in umgekehrter Reihenfolge ablaufen können. Dies liegt an der Zeitumkehrinvarianz der physikalischen Gesetze (siehe Kap. 10), die auch für die Quantenphysik postuliert wird. Daher kann auch die Information, die vor einem physikalischen Vorgang in den beteiligten Atomen codiert war (z.B. die Information in einem Buch, das verbrannt wird) im Prinzip durch den umgekehrt ablaufenden Vorgang wieder gewonnen werden. Es gibt jedoch eine Vielzahl von Prozessen, die theoretisch reversibel, aber praktisch irreversibel sind, weil der Anfangszustand gegenüber dem Endzustand extrem unwahrscheinlich ist. Diese Irreversibilität aus statistischen Gründen hat man bei Prozessen, bei denen die Entropie des Systems zunimmt (z.B. beim Verbrennen eines Buches) oder die Verschränkungen eines Quantensystemen zunehmen (z.B. beim Messprozess). Siehe dazu Kap.10.

Schwarze Löcher sind jedoch nach Stephen Hawking eine grundlegend neue Quelle von Irreversibilität in der Natur, weil aus dem Inneren ihres Horizonts gemäß ART keinerlei Information zu entkommen vermag, weil die prinzipiell messbaren Eigenschaften eines SL keinerlei Information über die an der Entstehung des SL beteiligten Atome enthalten ( No-Hair-Theorem) und weil auch die bei der Verdampfung entstehende Hawking-Strahlung keine Information über die Entstehungsgeschichte des Schwarzen Lochs enthält. Die Hawking-Strahlung enthält als reine Wärmestrahlung nur die Information über die Temperatur der Quelle. Anders als bei allen sonstigen durch die Quantenmechanik oder die Relativitätstheorie beschriebenen Vorgängen ist es prinzipiell (!) nicht möglich, dass die Entstehung, das Wachstum und die Auflösung eines Schwarzen Loches in umgekehrter Reihenfolge passiert. Diese Vorgänge wären demnach durch einen eindeutigen, nicht statistisch begründeten Zeitpfeil ausgezeichnet. Dies Problem wird als Informationsparadoxon Schwarzer Löcher bezeichnet.

Diese (ursprüngliche) Hawking-Interpretation ist in der Physiker-Gemeinde umstritten. Ein favorisierter Ansatz zur Auflösung des Paradoxons folgt aus einer im Rahmen der Stringtheorie gefundenen mathematischen Dualität von Eichung und Gravitation (AdS-CFT-Dualität), welche besagt, dass Bildung und Verdampfung eines SL alternativ durch eine Eichtheorie beschrieben werden kann. Dabei ergibt sich das Verdampfen als ein reversibler Prozess, die Information bleibt in einer Verschränkung der Teilchen der Hawking-Strahlung codiert. Dies erfordert allerdings die Auflösung der Verschränkung zwischen den virtuellen Teilchen-Antiteilchen-Paaren der Strahlung (Grundsatz: Monogamie der Verschränkung), was dann als Konsequenz zur Folge hätte, dass der Horizont eines SL von einer Feuerwand hoch-energetischer Teilchen umgeben wäre. Dies steht aber im Widerspruch zum Äquivalenzprinzip der ART, nachdem ein Beobachter der in ein SL fällt, lokal das Gleiche erfährt, wie wenn er durch den leeren Raum treibt.

4. Symmetrie der Naturgesetze, Erhaltungssätze

Die bisherige Erfahrung zeigt: „Den Gesetzen der Physik liegt eine Symmetrie zugrunde“. Symmetrie scheint ein wesentlicher Schlüssel zum Verständnis der Natur. Symmetrie bezieht sich auf Naturgesetze (beschrieben durch Gleichungen), die bzgl. gewisser Symmetrie-Transformationen (z.B. Koordinatentransformationen) gleich bleiben (d.h. die gleiche Physik beschreiben). Unterschieden werden diskrete Symmetrien mit nur endlich vielen Operationen (z.B. Spiegelsymmetrie) von Kontinuierlichen (z.B. Rotationssymmetrie). Bleiben gewisse Eigenschaften physikalischer Objekte (physikalische Größen) unter einer Symmetrie invariant (unverändert), so spricht man von einer Erhaltungsgröße (bezüglich dieser Symmetrie).

In der Relativitätstheorie spielt die Lorentzinvarianz bestimmter physikalischer Größen (z.B. Lichtgeschwindigkeit, Ruhemasse, Ladung) unter der Lorentztransformation eine wichtige Rolle. Diese transformiert Zeit, Ortsvariable und elektromagnetische Feldkomponenten unter Berücksichtigung der Äquivalenz geradlinig-gleichförmig bewegter Bezugssysteme und der Konstanz der Lichtgeschwindigkeit. Lorentzinvariante Beobachter / Bezugssysteme sind gleichberechtigt (äquivalent). Die ART postuliert die Invarianz der Naturgesetze bzgl. aller Bewegungsformen. Allerdings gilt die Lorentzinvarianz für die gleichmäßig beschleunigte Bewegung und den freien Fall nur lokal in hinreichend flachen Raumzeit-Umgebungen eines Weltpunktes (siehe Aufsatz „Raum-Zeit-Relativität“).

Emmy Noether formulierte und bewies 1918 das nach ihr benannte Noether-Theorem. Es lautet: Zu jeder kontinuierlichen Symmetrie eines physikalischen Systems gehört eine Erhaltungsgröße und umgekehrt. Das heißt: Immer wenn sich die physikalischen Gesetze bei Veränderungen eines bestimmten Parameters nicht ändern, so gibt es eine zugehörige Erhaltungsgröße, die zeitlich konstant ist. Als Erhaltungssatz bezeichnet man in der Physik die Aussage, dass sich eine Größe, Erhaltungsgröße genannt, nicht mit der Zeit ändert.

Wichtige aus Symmetrie-Eigenschaften begründbare Erhaltungssätze sind: (1) Aus der Homogenität der Zeit (Wahl der Startzeit spielt keine Rolle) folgt die

Erhaltung der Energie (Energieerhaltungssatz). So bleibt die mechanische Energie eines Pendels bei Vernachlässigung von Reibung stets gleich, nicht aber die Energie einer Schaukel, auf der ein Kind durch Heben und Senken seines Körpers die Länge von der Aufhängung bis zum Schwerpunkt zeitlich verändert.

(2) Aus der Homogenität des Raums (Wahl des Startortes spielt keine Rolle) ergibt sich die Erhaltung des Impulses (Impulserhaltungssatz). So ist der Impuls eines freien Teilchens konstant, nicht aber der Impuls eines Teilchens im Gravitationsfeld der Sonne; ihr Ort ist für die Bewegung des Teilchens wesentlich.

(3) Aus der Unabhängigkeit bzgl. der Richtung der Raumachsen (Isotropie des Raumes, Rotationsinvarianz) folgt die Erhaltung des Drehimpulses.

(4) Aus Symmetrie-Eigenschaften der quantenphysikalischen Wellenfunktionen von Elektronen, Quarks und Neutrinos (der sogenannten Eichsymmetrie) lassen sich die Erhaltungssätze der zugehörigen Kraftladungen (z.B. elektrischen Ladung) ableiten. Jede solche Ladung ist ein Lorentz-invarianter Skalar, sie hat in allen Bezugssystemen denselben Wert, anders als beispielsweise der Drehimpuls, Energie oder der Impuls.

Der im Noether-Theorem formulierte Zusammenhang von Symmetrien und Erhaltungsgrößen gilt für physikalische Systeme, deren Bewegungs- oder Feldgleichungen aus dem Prinzip der kleinsten Wirkung hergeleitet werden können. Alle grundlegenden physikalischen Gesetze lassen sich in diesem mathematischem Rahmen formulieren. Beispiel: Für die möglichen Bahnkurven x(t) eines Teilchens in einem Gravitationsfeld zwischen x(t1) und x(t2) ist die

Wirkung S(x(t)) der Bahnkurve die Differenz von kinetischer Energie mv2/2 minus potentieller Energie V(x) entlang der Bahnkurve, integriert über den Zeitraum zwischen t1 und t2. Aus der Forderung S(x(t)) = minimal, kann man die Bewegungsgleichung für die Bahnkurve ableiten. Wenn die physikalischen Gesetze nicht davon abhängen, zu welchem Zeitpunkt man sie betrachtet, so darf auch die Bahnkurve, die die minimale Wirkung aufweist, nicht davon abhängen. Emmy Noether hat nun den entsprechenden mathematischen Ausdruck für diese Invarianz-Aussage dazu verwendet, um eine neue mathematische Größe zu konstruieren und nachzuweisen, dass diese sich zeitlich nicht ändert. Für Invarianz unter Zeitverschiebungen kommt dabei die Energie des Teilchens heraus, also die Summe von kinetischer und potentieller Energie.

C-/P-/T-Symmetrien (für englisch: Charge, Parity, Time = Ladung, Parität, Zeit)Das CPT-Theorem ist ein fundamentales physikalisches Gesetz, das 1955 von Wolfgang Pauli (und unabhängig auch von Gerhart Lüders) aufgestellt wurde. Es besagt, dass jeder Vorgang, der aus einem anderen Vorgang durch Vertauschen von Materie mit Antimaterie und zusätzliche Spiegelung des Raumes (Inversion aller 3 Raumkoordinaten) und Umkehr der Zeitrichtung hervorgeht, ebenfalls im Einklang mit den Gesetzen der Physik steht und damit möglich ist und auch mit denselben (quantenphysikalischen) Übergangswahrscheinlichkeiten abläuft. Dieser Sachverhalt wird auch als Invarianz der physikalischen Gesetze bezüglich einer CPT-Transformation bezeichnet. Die Gültigkeit des CPT-Theorems ist im Rahmen der heute erreichbaren Genauigkeit experimentell bestätigt.

Wolfgang Pauli zeigte darüber hinaus, dass jede Theorie CPT-invariant ist, die die folgenden Voraussetzungen erfüllt: Invarianz bezüglich Lorentztransformationen, Kausalität, Lokalität und ein nach unten beschränkter Hamilton-Operator, so dass es einen quantenmechanischen Zustand des Vakuums gibt (d.h. das Vakuum hat auch im Grundzustand niedrigst möglicher Energie eine positive Nullpunktsenergie (Vakuumenergie; s. Kap. 9). Der Hamilton-Operator, auch Energieoperator, bestimmt in der Quantenmechanik die möglichen Energiemesswerte.)

Alle physikalischen Prozesse, bei denen lediglich die Gravitation und die elektromagnetische Wechselwirkung beteiligt sind, bleiben bei jeder einzelnen dieser drei Transformationen unverändert (invariant). Das ist insbesondere bei allen Vorgängen der Alltagsphysik der Fall.Bei Beteiligung der schwachen Wechselwirkung ist das jedoch nicht mehr der Fall.

Die schwache Kraft verletzt die C, P, CP und T-Symmetrie. Ob diese Symmetrien bei Vorgängen unter Beteiligung der starken Wechselwirkung verletzt sein können, ist noch nicht abschließend geklärt. Bislang gibt es dafür keine experimentellen Hinweise (s. unten „starkes CP-Problem). Ist eine dieser Symmetrien verletzt, ist es (aufgrund der Gültigkeit der CPT-Symmetrie) auch die Kombination der beiden anderen und umgekehrt. Aus der Verletzung der CP-Invarianz folgt also auch eine Verletzung der Zeitumkehrvarianz des betroffenen Prozesses. Dies bedeutet aber nicht, dass die fundamentalen Gesetze der Physik einen Unterschied zwischen Vergangenheit und Zukunft kennen, sondern nur, dass das genau Zeit-umgekehrte Analogon eines Prozesses auch eine Raumspiegelung und eine Ladungsumkehr erfordert. Die Verletzung der P-Symmetrie (Raumspiegelung) wurde am Beispiel des Beta-Zerfalls und des Myon-Zerfalls nachgewiesen, welche durch die schwache Kraft bewirkt werden. Dabei entstehen nur „linkshändige“ Neutrinos und nur „rechtshändige“ Anti-Neutrinos. Da Neutrinos nahezu masselos sind, bewegen sie sich fast mit Lichtgeschwindigkeit. Dabei besitzt ein Neutrino eine quantenmechanische Eigenrotation (einen Spin) um sein Flugachse, wobei es in Flugrichtung betrachtet immer gegen den Uhrzeigersinn rotiert, also links herum. Es gibt demnach nur links herum rotierende Neutrinos! Würde man ein solches Neutrino in

einem Spiegel betrachten, so würde es rechts herum rotieren - solche Neutrinos kann aber die schwache Wechselwirkung nicht erzeugen. Die Spiegelsymmetrie ist verletzt. Die Verletzung der C-Symmetrie zeigt sich ebenfalls darin, dass Linkshändigkeit bei Anti-Neutrinos in der Natur nicht vorkommt, denn die Ladungskonjugation würde aus einem linkshändigen Neutrino ein linkshändiges Antineutrino machen, was experimentell aber nicht beobachtet wird. (Die CP-Symmetrie ist in diesem Fall aber gegeben). Die CP-Verletzung zeigt sich darin, dass für gewisse schwache Zerfallsprozesse die räumlich spiegelverkehrter Prozesse in Antimaterie weniger häufig vorkommen. Die T-Verletzung konnte 2012 direkt nachgewiesen werden, nachdem sie bereits lange zuvor indirekt aufgrund der bereits nachgewiesenen CP-Verletzung vermutet wurde.

Eichsymmetrien:Die Quantenfeldtheorien der elektroschwachen und starken Wechselwirkungen (WW) sind sogenannte Eichtheorien. Auch bei diesen spielen gewisse Symmetrie-Eigenschaften der betrachteten Fermionfelder (sogenannte Eichsymmetrien) eine wesentliche Rolle (s. unten).

5. Das Standardmodell der Teilchenphysik und seine Defizite

Das Standardmodel (SM) der Elementarteilchen, kurze Zusammenfassung:Das SM ist ein Ergebnis der Quantenfeldtheorien. Danach besteht die Welt aus wenigen Materie- und Kraft-Feldern, die Energie durch die Raum-Zeit tragen und nur in diskreten Paketen verändert werden können. Diesen Feldern entsprechen Elementarteilchen (Fermionen und Bosonen), die als elementare Anregung des entsprechenden Quantenfeldes (Feldquant) aufgefasst werden können. Nach dem SM gibt es 12 Materieteilchen (Fermionen), die sich in 3 Familien a 4 Teilchen (je 2 Quarks und 2 Leptonen) gruppieren. Die erste Familie enthält das Up- und Down-Quark aus denen sich Protonen und Neutronen zusammen setzen, ferner als Leptonen das Elektron und das (Elektron-)Neutrino. Aus diesen 4 Teilchen ist die uns vertraute, sogenannte baryonische Materie aufgebaut. (Die Bedeutung der beiden anderen Familien ist ungeklärt. Sie sind analog aufgebaut, haben aber schwerere Massen und sind bis auf ihre Neutrino-Teilchen instabil, d.h. ihre Quarks und Elektron-Pendants zerfallen in sehr kurzer Zeit ggf. über Zwischenstufen in stabile Fermionen und/oder Photonen). Zu den 12 Materie-Teilchen gibt es 12 Anti-Teilchen (Anti-Materie). Ferner gibt es 12 Kraftteilchen (vektorielle Bosonen): 8 Gluonen, welche die starke Kraft übermitteln, das Photon als Übermittler der elektromagnetischen Kraft und sowie Z-Boson, W+ und W- -Boson, welche die schwache Kraft übermitteln. Ferner das skalare Higgs-Boson als elementare Anregung des Higgs-Feldes; dieses ist dafür verantwortlich, das die Fermionen sowie die W- und Z-Bosonen eine positive Ruhemasse haben. Fermionen enthalten für jede Fundamentalkraft, der sie unterliegen, eine entsprechende „Kraftladung“ (z.B. elektrische Ladung für elektromagnetische Kraft, Farbladung für starke Kraft).

Symmetrieprinzipien der Quantenfeldtheorien (Eichsymmetrien)In den Quantenfeldtheorien der elektroschwachen und starken Wechselwirkungen (WW) werden Symmetrien mittels sogenannter Eichtheorien beschrieben. Diese beschreiben das Zusammenwirken zwischen einem Fermionfeld (z.B. Elektronen, Quarks) bzgl. einer bestimmten Ladungsart (z.B. elektrische Ladung, Farbladungen) und einem Eichfeld, das die Wechselwirkungsteilchen („Eichbosonen“) repräsentiert, welche die Ladungsträger koppeln. Diese Eichtheorien sind dadurch gekennzeichnet, dass sich die physikalischen Eigenschaften des beschriebenen Fermionfeldes bei gewissen lokalen Eichtransformationen nicht ändern (Eichsymmetrie, Eichvarianz; s. Aufsatz „Quantentheorie“). Aus den Symmetriebedingungen ergeben sich die betreffenden Wechselwirkungsteilchen mit ihren Eigenschaften. Das Noether-Theorem garantiert die Erhaltung der entsprechenden Kraftladungen.

Mathematisch bilden die Eichtransformationen eine Gruppe. Das Standardmodell (SM) enthält 2 Eichtheorien, zum einen die der starken Kraft mit der Symmetriegruppe SU(3), zum anderen die der elektroschwachen Kraft mit der Symmetriegruppe SU(2) x U(1). Letztere beschreibt die Vereinheitlichung der schwachen Kraft, Symmetriegruppe SU(2), mit der elektromagnetischen Kraft, Symmetriegruppe U(1), das sind „anschaulich“ alle Drehungen in der Ebene um einen festen Mittelpunkt. Die elektroschwache Symmetrie kann nur oberhalb einer gewissen Mindestenergie der beteiligten Teilchen gehalten werden. Sinkt die Energie unter diese Schwelle erfolgt die spontane Symmetriebrechung eines assoziierten, skalaren Potentialfeldes (Higgs-Feld), und die elektroschwache Kraft zerfällt in die schwache Kraft und die elektromagnetische Kraft. Dabei gleitet das Higgsfeld vom instabilen Zustand eines falschen Vakuums in einen weniger symmetrischen aber stabilen Grundzustand niedrigster, aber positiver potentieller Energie (echtes Vakuum), analog einem rotierenden Kreisel, der durch Reibung Energie verliert, bis er plötzlich umfällt und damit seine Rotationssymmetrie

verliert. Das Higgsfeld im Grundzustand wechselwirkt nun mit den Teilchen, die Masse tragen, und verleiht diesen dadurch ihre spezifischen Ruhemassen. („Higgs-Mechanismus“).

Die Symmetrie der elektroschwachen WW wird etwa bei derzeitig mit LHC (Large Hadron Collider) der Cern erreichten Energien wieder hergestellt. Dabei konnte auch das seit 1964 prognostizierte Higgs-Boson, das Feldquant des Higgs-Feldes, 2012 nachgewiesen werden.

Einige Defizite des Standardmodells:1.) Zunächst einige Unzulänglichkeiten: es gibt viele (25) freie Parameter, für die es keine aus der Theorie folgende Erklärung gibt und deren Werte experimentell bestimmt werden müssen (u.a. die Kopplungsstärken der 3 im SM betrachteten fundamentalen Kräfte und die Massen der Elementarteilchen); es gibt keine Erklärung für die sehr unterschiedlichen Massen und Kopplungsstärken sowie für die Existenz von 3 Generationen von Elementarteilchen; die Gravitation kommt im SM gar nicht vor. Es gibt auch einige vermutlich falsche Voraussagen:

2.) Nach dem SM sollten die 3 Neutrinos der 3 Familien keine Masse haben, was aber experimentellen Befunden widerspricht, nach denen sich die Neutrinos ineinander umwandeln können (Neutrino-Oszillationen). Dazu müssen Neutrinos allerdings eine Massendifferenz aufweisen – und eine Massendifferenz wieder ist nur möglich, wenn die Massen nicht null sind. Die Ruhemassen der Neutrinos sind allerdings sehr gering. Als Obergrenze für die drei Neutrinomassen wird aus verschiedenen Experimenten 2,2 eV/c² =~ 4x10-36 kg angenommen. 3.) Die starke Kraft sollte theoretisch (wie auch die elektroschwache Kraft) die CP-Symmetrie verletzen; die Konsequenz eines magnetischen Moments des Neutrons ist aber nicht zu beobachten. Dieses „starke CP-Problem“ ist theoretisch umgehbar durch das Postulat einer Symmetriebrechung eines assoziierten skalares Potentialfeldes, welches ein neues Teilchen, das Axion zur Folge hätte. Dieses ist auch ein Kandidat für „dunkle Materie“ (s. Kap. 8).

4.) Es gibt keine Erklärung, wie das Higgs-Boson zu einer Ruhemasse kommt. Außerdem ist die experimentell bestimmte Higgs-Masse (125 GeV/c2) sehr viel kleiner als die theoretisch Vorausgesagte, die stark von Vakuumfluktuationen (virtuellen Teilchen) beeinflusst sein sollte und mit einer Masse zwischen 107 und 1019 GeV/c2 abgeschätzt wird.Wie groß die Diskrepanz genau ist, hängt davon ab, bis zu welcher Energieskala (bzw. Minimallänge, s. Kap. 2) das Standardmodell gültig ist, was bisher niemand weiß.

Renormierung in der Quantenfeldtheorie (QFT):Die Gleichungen des Standardmodells sind nicht lösbar. Sie enthalten Terme, die gegen „unendlich“ divergieren. Um trotzdem Berechnungen durchführen zu können, verwendet man ein Konzept, das Renormierung genannt wird. Durch Renormierung wird eine maximale Energieskala (Cutoff) festgelegt, bis zu der man die Theorie betrachtet; Teilchen, deren Masse jenseits dieser Skala liegen, werden vernachlässigt. Obwohl diese Vereinfachungen bisher immer stimmige Voraussagen liefern, sind sie im Grunde nicht verstanden, beruhen sogar auf einem mathematisch inkonsistenten Wechselwirkungsbild der Quantenfeldtheorie (Haagsches Theorem).

Eine der wichtigsten im Rahmen dieses Renormierungsverfahrens gewonnen Erkenntnisse besagt, dass die Kopplungskonstanten, welche die Stärke der Fundamentalkräfte festlegen, und die Teilchenmassen, nicht konstant sind, sondern von Vakuumfluktuationen (virtuellen Teilchen) „energetisch“ beeinflusst werden und ihre Werte daher immer in Bezug auf eine bestimmte Energieskala zu verstehen sind. Dies wird im Folgenden (GUT-Theorie) wichtig.

6. GUT-Theorie (Grand Unified Theory) und SUSY (Supersymmetrie)

Das Standardmodell der Teilchenphysik ist durch eine Vielzahl experimentell bestätigter Voraussagen abgesichert worden. Dennoch ist das Modell unbefriedigend, da es ein „Flickwerk aus unterschiedlichen Gleichungen darstellt. Es gibt auch eine Vielzahl offener Fragen (s. oben), die möglicherweise erst im Rahmen einer erweiterten Theorie beantwortet werden können. Dieses soll die ansatzweise entwickelte GUT-Theorie (Grand Unified Theory) sein, welche die Vereinheitlichung der starken mit der elektroschwachen Wechselwirkung (WW) sowie eine Vereinheitlichung der Materieteilchen (Fermionen) bei Energien > 1015 GeV (Temperatur > 1028 K) voraus sagt.

Man nimmt an, dass elektromagnetische WW, schwache WW und starke WW unmittelbar nach dem Urknall in einer „GUT-Kraft “ vereinigt waren. Im Zuge der Abkühlung und Ausdehnung des Universums kam es dann bei Unterschreiten gewisser Teilchenenergie- bzw. Temperatur-Schwellen zu „Symmetriebrechungen“ im System, analog zu den Aggregats-übergängen von Gasen zu Flüssigkeiten zu Festkörpern. Dabei kam es zunächst (bei etwa 1016

GeV /1029 Grad K) zu einer Aufspaltung der GUT-Kraft in die elektroschwache und die starke Kraft, bei weiterer Abkühlung dann zu einer Aufspaltung der elektroschwachen in die schwache und die elektromagnetische Kraft. Die elektroschwache Kraft wurde auch schon experimentell nachgewiesen und theoretisch begründet. Sie spaltet sich bei 100 GeV (1015 K), also Teilchenenergien, die von modernen Beschleunigern erreicht werden können, durch spontanen Symmetriebruch des assoziierten Higgsfelds in die elektromagnetische und schwache Kraft auf (elektroschwache Symmetriebrechung, s. Kap. 5).

Es gibt eine Reihe von GUT-Theorien, aber bisher kein allgemein akzeptiertes Modell. Gemäß den Quantenfeldtheorien ist jeder Wechselwirkung eine bestimmte Symmetriegruppe (Eichgruppe) zugeordnet. Aus dem Gruppenformalismus folgen die Botenteilchen der WW (Eichbosonen) mit ihren Eigenschaften. Die verschiedenen Ansätze der GUT-Theorie zielen zunächst auf eine Vereinigung der Eichtheorien des Standardmodells für die starke und elektroschwache WW in einer übergeordneten Eichgruppe MGUT ab (z.B. SU(5) als kleinste die beiden Eichgruppen SU(3) und SU(2) x U(1) umfassende Eichgruppe). Sie beruhen auf theoretischen Berechnungen, nach denen die starke Kernkraft bei hoher Energie schwächer wird, wohingegen die elektromagnetische Kraft und die schwache Wechselwirkung, bei hoher Energie stärker werden. Bei einer bestimmten, sehr hohen Energie sollen dann alle drei Kräfte die gleiche Stärke erreichen und könnten sich als verschiedene Aspekte einer einzigen Kraft erweisen. Die resultierende SU(5)-Theorie sagt 24 (52 - 1) Eichbosonen voraus. Zu den 12 bisher bekannten Eichbosonen (8 Gluonen, 1 Photon, 2 W-Teilchen und 1 Z-Teilchen) kämen demnach 12 weitere (X- und Y-Bosonen) hinzu, welche die GUT-Kraft vermitteln. Diese hypothetischen, auch Leptoquarks genannten Bosonen und ihre jeweiligen Antiteilchen haben eine sehr hohe äquivalente Masse (~ 1016 GeV/c2, also etwa die 1016-fache Protonenmasse) und eine extrem kurze Lebensdauer und Reichweite. Sie tragen elektrische Ladung, schwache Ladung und Farbladung und koppeln daher an Quarks und an Leptonen (wie z.B. Elektron und Elektron-Neutrino). Ihr Spin ist 1 oder 0. Sollten Leptoquarks existieren, würde ihr Austausch die Umwandlung von Leptonen in Quarks und umgekehrt ermöglichen und so die betragsmäßige Gleichheit der Ladung von Proton und Elektron erklären. Ihre Existenz könnte auch erklären, warum es genauso viele Protonen wie Elektronen gibt. Leptoquarks können in Quarks und Leptonen zerfallen gemäß:(1) X → u u / e+ d , (2) X → u u / d e- ; (3) Y → u e+ / d v e , (4) Y → u e- / d ve

(u /d = up- /down-Quark, e+ /e- = Positron/ Elektron, ve = Elektron-Neutrino; = „Anti-“)

X-Teilchen sind 4/3 e positiv geladen, Anti X-Teilchen (X) entsprechend 4/3 e negativ. X-Teilchen können in 2 Up-Quarks (Ladung: +2/3 e) zerfallen (1), Anti X-Teilchen können zu einem Elektron und einem Down-Quark (Ladung: -1/3 e) zerfallen (2). Aus den 3 Quarks wird ein Proton (u-u-d) , was zusammen mit dem entstandenen Elektron e- ein Wasserstoffatom gibt. Gemäß obiger Zerfallsgleichungen können X- und Anti-X-Boson aber auch zu einem Anti-Proton (u-u-d) und einem Positron zerfallen.Unter GUT-Bedingungen laufen obige Reaktionen auch ständig in umgekehrter Richtung, dadurch herrscht eine Symmetrie zwischen (Anti-)Quarks und (Anti-)Leptonen.Bei der GUT-Symmetriebrechung zerfallen die schweren X- und Y-Bosonen in Quarks und Leptonen. Dabei wird die Erhaltung der Baryonenzahl B und der Leptonenzahl L verletzt. Die Differenz B - L ist (zumindest gemäß S(5)-Theorie, s. unten) wieder eine Erhaltungsgröße. Außerdem gilt die Erhaltung der elektrischen Ladung.

Einer Mutmaßung zu Folge hat die heute beobachtete Asymmetrie zwischen Materie und Antimaterie im Universum ihren Ursprung darin hat, dass die den Zerfall der Anti-X- und X-Bosonen bewirkende elektroschwache Wechselwirkung die sogenannte CP-Symmetrie bzgl. Ladungskonjugation und Spiegelung der Raumkoordinaten verletzt (s. Kap. 4). Dies könnte 2 Zerfallsreihen des (Anti-) X-Bosons mit unterschiedlichen Zerfallsraten bewirkt haben, die einen kleinen Überschuss von Materie gegenüber Antimaterie entstehen ließ, so dass nach der gegenseitigen Vernichtung von Materie und Anti-Materie in der nachfolgenden Epoche nur die Materieteilchen übrig blieben, aus denen das Universum heute besteht. Dies würde möglicherweise auch erklären, warum der gleiche Überschuss bei den Quarks und bei den Elektronen existiert, so dass unser Universum elektrisch neutral geblieben ist. Aber auch jede andere Theorie zur Erklärung dieser Asymmetrie muss die sogenannten Sacharow-Kriterien erfüllen, zu denen eben auch eine Verletzung der CP-Symmetrie gehört.

Konvergenz der Fundamentalkräfte:Die Kopplungsstärken der im SM betrachteten Wechselwirkungen sind abhängig von der Energie der Teilchen, die Ladung tragen (z.B. Elektron, Quark), denn diese sind neben der zugehörigen virtuellen (Kraft-übermittelnden) Bosonenwolke von Vakuumfluktuationen entsprechender virtueller Teilchen-Antiteilchen-Paare umgeben, welche die räumliche Ladungsverteilung um das Teilchen und damit dessen Kopplungsstärke beeinflussen. (siehe Aufsatz „Quantenphysik“, Kap. 7). So ist ein frei durch den Raum fliegendes Elektron ständig von einer fluktuierenden Wolke aus virtuellen Elektron-Positron-Paaren umgeben. Dabei werden virtuellen Positronen vom Elektron angezogen und die virtuellen Elektronen abgestoßen. Man sagt, das Vakuum wird durch die Anwesenheit des Elektrons polarisiert. („Vakuumpolarisation“). Diese polarisierende Wolke beeinflusst das elektrische Feld um das Elektron und damit dessen elektromagnetische Kopplungsstärke. Man kann nun berechnen, wie sich die Kopplungsstärke abhängig von der Energie der Ladungsteilchen ändert. Geht man von atomaren Wechselwirkungsabständen zu sehr viel kleineren Distanzen und damit zu sehr hohen Teilchenenergien und Impulsübertragungen über, so bewegen sich die Kopplungsstärken der elektromagnetischen, schwachen und starken Wechselwirkungen aufeinander zu. Die Vorhersagen zeigen, dass sich die Stärken bei winzigen Abständen (entsprechend hohen Energien) zwar sehr nahe kommen, sich jedoch knapp verfehlen.

Supersymmetrie (SUSY):Anders, wenn man supersymmetrische Teilchen in den Rechnungen berücksichtigt. (Die Energieabhängigkeit der Kopplungsstärken hängt von der virtuelle Präsenz aller Teilchen ab.) Dann zeigt sich, dass die elektromagnetische, schwache und starke Kraft bei etwa 1016 GeV dieselbe Stärke annehmen und sich auf eine Urkraft zurückführen lassen. Die meisten GUT-

Theorien gehen daher vom Postulat einer Supersymmetrie (SUSY) der Teilchenphysik bei den GUT- Bedingungen aus, die jedem Boson (ganzzahliger Spin) und jedem Fermion (halbzahliger Spin) mindestens einen Superpartner (S-Teilchen) der jeweils anderen Klasse zugeordnet; d.h. der S-Partner eines Teilchens hat exakt die gleichen Quantenzahlen bis auf den (um ½ verringerten) Spin. Wikipedia: Die Supersymmetrie (SUSY) ist eine hypothetische Symmetrie der Teilchenphysik, die Bosonen (Teilchen mit ganzzahligem Spin) und Fermionen (Teilchen mit halbzahligem Spin) ineinander umwandelt. Dabei werden Teilchen, die sich unter einer SUSY-Transformation ineinander umwandeln, Superpartner genannt. Allerdings konnte trotz vielversprechender theoretischer Argumente bis heute kein experimenteller Nachweis erbracht werden, dass Supersymmetrie tatsächlich in der Natur existiert – insbesondere wurden noch keine Superpartner bekannter Teilchen beobachtet. Das bedeutet, dass diese Symmetrie, wenn sie existiert, gebrochen ist. Der Brechungsmechanismus und die Energie, ab der die Symmetrie gilt, sind unbekannt.

Welche Argumente sprechen für SUSY: (1) Die Kopplungskonstanten bewegen sich rechnerisch bei sehr hohen Energien (kleinen Abständen) auf einen gemeinsamen Wert zu (Eichkopplungsvereinigung=Vereinheitlichung der Kräfte). Auch der sogenannte durch Messung zu bestimmende Weinbergwinkel (Mischungswinkel) zwischen elektromagnetischer und schwacher WW steht ergibt nur für supersymmetrische GUT eine Vereinbarkeit mit aktuellen experimentellen Daten.

(2) Mit SUSY sollten die Quantenkorrekturen für das Higgs-Boson soweit kompensiert werden, dass die am LHC bestimmte geringe Higgs-Masse (s. Kap. 5) erklärbar wäre.

(3) Die meisten SUSY-Teilchen zerfallen der Theorie zufolge nach sehr kurzer Zeit in das leichteste dieser Teilchen, welches langlebig stabil sein soll, auch nur gravitativ und schwach wechselwirkend. Es wird damit als Kandidat für kalte dunkle Materie (WIMP-Teilchen ) gehandelt (s. Kap.8). Außerdem könnte es im frühen Universum in Fülle erzeugt worden sein, auch in der richtigen Häufigkeit von 23% der Masse des Universums („WIMP-Wunder“).

Vorhersagen der GUT-Theorie: Protonenzerfall und Magnetische MonopoleDie meisten GUT-Theorien führen zu der Vermutung, dass auch Protonen nach sehr langer Zeit, >= 1031 Jahren, zerfallen gemäß: Proton → Positron + Pion → Positron + 2 Gamma-Photonen. (Verletzung der Baryonenzahl-Erhaltung durch diesen Prozess)Ferner wird von einigen die Existenz magnetischer Monopole vorhergesagt, die beim Urknall entstanden sein könnten, aber im heutigen Universum nur sehr ausgedünnt vorkommen sollten. Bisher konnte jedoch keines dieser vorhergesagten Phänomene beobachtet werden.

Nach der Theorie wird der Protonenzerfall durch X-Bosonen vermittelt. Die sehr hohe Masse-Energie der X- und Y-Bosonen führt dazu, dass diese X-Kraft eine extrem kurze Reichweite hat. Anschaulich gesprochen müssen sich Teilchen sehr nahe kommen, damit sie die X-Kräfte spüren. Da dies sehr unwahrscheinlich ist, ist die Zerfallszeit des freien Protons enorm groß. Aus den bisherigen erfolglosen Experimenten, einen Protonenzerfall zu beobachten, lässt sich auf eine mittlere Lebensdauer des Protons von >= 1034 Jahren schließen. Die SU(5)-Theorie führt allerdings auf zu kurze Halbwertzeiten für den Protonenzerfall (mittlerer Protonenzerfall nach 1031 Jahren). Mit größeren Gruppen etwa SU(10) ergibt sich Obergrenze für Protonen- Lebensdauer von >= 1033, was noch in Übereinstimmung mit Experimenten wäre. Bei GUT-Theorien mit SUSY erhält man jedoch eine Mindest-Halbwertszeit für den Protonenzerfall von bis zu 1039 Jahren. (Einige super-symmetrische Varianten von SU(5) liefern eine leicht erhöhte Protonen- Lebensdauer am Rande der Machbarkeit).

Ein magnetischer Monopol als Elementarteilchen wäre für den Magnetismus das, was das Elektron für die Elektrizität ist. Wenn es ihn gäbe, wäre er Quelle des magnetischen Feldes, die merkwürdige Asymmetrie zwischen den sonst so ähnlichen Erscheinungen Magnetismus und Elektrizität, sichtbar in den Maxwell-Gleichungen, wäre behoben, und es wäre erklärbar, warum die elektrische Ladung stets nur in ganzzahligen Vielfachen von 1/3 Elementarladung auftritt. Die vorhergesagte Masse eines Monopols ist enorm groß, so dass es völlig illusorisch wäre darauf zu hoffen, ihn jemals in einem Teilchenbeschleuniger erzeugen und nachweisen zu können. Dass man bis heute keine magnetischen Monopole gefunden hat, wird oft mit der kosmischen Inflation (siehe Kap. 8) begründet, die durch eine enorme Aufblähung des Universums zu einer extremen Ausdünnung dieser beim Urknall entstandenen Teilchen geführt haben soll.

Anmerkungen:1) Auch die GUT-Symmetriebrechung erfordert eine spontane Symmetriebrechung eines Higgs-analoges skalares Feldes, welches vom instabilen, aber höher-symmetrischen Wert eines falschen Vakuums auf das niedrigste, aber von Null verschiedene Potential des echten Vakuums hinab gleitet. In manchen Abhandlungen wird dieses Feld gleichgesetzt mit dem in der Kosmologie postulierten Inflaton-Feld, welches für die kosmische Inflation und die Entstehung der Materie am Ende der sogenannten GUT-Ära des Universums verantwortlichen sein soll. (s. Kap. 8). Die meisten Wissenschaftler teilen diese Annahme der Gleichheit der beiden Felder aber nicht.

2) Stand der Forschung:Bisher hat man noch von keinem Teilchen den SUSY-Partner nachgewiesen, deshalb geht man davon aus, dass diese SUSY-Teilchen eine sehr hohe äquivalente Masse haben und daher nur mit sehr hohen Energien erzeugbar sind. Auch die Suche nach den postulierten Teilchen (WIMP oder Axion) der dunklen Materie ist trotz vieler Detektor-Experimenten in den letzten 30 Jahren bisher erfolglos geblieben. Dabei hatte man die Entdeckung von SUSY-Teilchen bei den jüngst am LHC durchgeführten Stoßprozessen erwartet, bei denen Kollisionsenergien bis ~ <= 14 TeV = ~ 14x103 GeV erreicht wurden. Denn der Unterschied zwischen berechneter und gemessener Higgs-Masse (s. Kap. 5, Defizite des SM) lässt sich durch Vakuumfluktuationen von SUSY-Teilchen nur dann hinreichend genau erklären, wenn diese eine äquivalente Masse-Energie haben, die bei diesen Stoßexperimenten erreicht wurde. Auch die mit SUSY prognostizierte Konvergenz der Eichkopplungen funktioniert besonders genau bei einer SUSY Brechung in einem Energiebereich, der am LHC erreicht wurde.

Dies hat zu einer Krise der theoretischen Physik geführt. Nach Meinung mancher Kritiker (siehe z.B. Sabine Hossenfelder: „Das hässliche Universum“), hat sich die Theoriebildung in theoretischen Physik – getrieben von postulierten Prinzipien wie Symmetrie, Natürlichkeit oder auch Schönheit für die gesuchten Gleichungen zu sehr verselbstständigt und bindet enorme Ressourcen obwohl es teilweise seit Jahrzehnten keine experimentelle Bestätigung für diese Theorien gibt. Gefordert wird u.a. die experimentelle Überprüfbarkeit in den Vordergrund zu stellen oder auch auf postulierte „Unendlichkeiten“ zu verzichten.

7. Quantentheorien der Gravitation

Die allgemeinen Relativitätstheorie (ART) und der Quantentheorie (QT) sind im Bereich der Planck-Skala nicht mehr widerspruchsfrei anwendbar (s. Kap. 2). Theoretische Physiker gehen daher davon aus, dass die ART und die QT bei diesen Größenordnungen in einer übergeordneten Quantentheorie der Gravitation aufgehen müssten, die beide Theorien im Sinne des Korrespondenzprinzips als Grenzfall enthält. Die Schleifenquanten-Gravitation (SQG) und die String-Theorie sind die heute meist diskutierten Ansätze einer solchen umfassenden Theorie (Weltformel). Schleifenquantengravitation (SQG) - zusammengefasst nach M. Bojowald + Wikipedia:Die SQG versucht die Vereinheitlichung von ART und QT auf mathematische Weise: Sie beruht auf dem durch Eigenschaften der Planck-Skala nahe gelegtem Postulat, dass auch Raum und Zeit eine diskrete, körnige Struktur haben, dass es also kleinste Raum- und Zeitabstände gibt (gegeben durch Planck-Länge lp und Planck-Zeit tp), die sich nicht mehr weiter unterteilen lassen. Die Raumkrümmung der ART wird in mathematisch äquivalenter Form durch elementare Raumzeitknoten mit einer Raumzeit-Orientierungsrichtung ausgedrückt. Dies führt auf ein Netzwerk verbundener Raumzeitatome, also eine körnige (diskrete) Struktur von Raum und Zeit. Diese kleinsten Raumzeitelemente werden mathematisch durch eine Schleife beschrieben, die längs einer geschlossenen Kurve sämtliche Winkeländerungen auf der Oberfläche eines gekrümmten Raumzeitelementes und die von ihr gebildete Fläche enthält. Mittels dieser Schleifen lässt sich die Geometrie der gekrümmten Raumzeit vollständig beschreiben. Räumliche Abstände, Flächeninhalte und Volumina werden erzeugt, indem aus den Schleifen eine Art Netzwerk als Raum erbaut wird. Die Größe eines Raumes kann sich damit durch Hinzufügen einer Schleife jeweils nur um einen Quantensprung vergrößern. Für diese Schleifen werden heuristische Quantisierungsregeln gemäß der QT formuliert. Durch Umformung der ART-Gleichungen in die durch Schleifen beschriebene Raumzeit-Geometrie erhält man Differenzengleichungen, die das Hinzutreten und Entfernen von Schleifen und damit die Dynamik der Raumzeit beschreiben. Diese heuristischen Gleichungen sind nicht eindeutig festgelegt, hochgradig abstrakt und unanschaulich und in allgemeiner Form bisher nicht lösbar. Sie gestatten aber Lösungen unter vereinfachenden Annahmen.

Eine äquivalente Beschreibung erhält man durch ein sogenanntes Spin-Netzwerk:Ein Quantenzustand des Raumes wird dabei durch ein Netzwerk von Knoten (Volumen lp

3) beschrieben, die durch „Linien“ (Flächen lp

2) verbunden sind. Den Knoten werden bestimmte Eigenschaften zugeordnet, die mathematisch denen des Spins von Elementarteilchen ähneln. Jedem Knoten entspricht ein Elementarvolumen, die Knotenabstände entsprechen der Planck-Länge. Damit enthält ein Kubikzentimeter 1099 Knoten. (Zum Vergleich: das beobachtbare Universum enthält lediglich 1085 Kubikzentimeter.). Das Netz selbst ist der Raum. Zwischen den Knoten und Verbindungen existiert Nichts. Elementarteilchen entsprechen Netzknoten oder Knoten-Kombinationen mit bestimmten Eigenschaften. Die Bewegung von Teilchen entspricht dabei einer Verschiebung entsprechender Knotentypen im Netz. Dem diskreten (in Planck-Zeiten quantisierten) Fortschreiten der Zeit entsprechen fortlaufend sprunghafte strukturelle Veränderungen im Netz wie die Bewegung oder Vereinigung von Knoten oder die Entstehung mehrerer Knoten aus einem einzigen. Anders gesagt: überall dort, wo sich ein Spin-Netzwerk neu formiert, tickt einmal eine lokale Uhr Man spricht von Spinschaum.Diese Veränderungen im Netz sind auch nicht eingebettet in eine Zeit, sondern sie stellen den Zeitfluss selbst dar. Das bedeutet, dass die Bewegungen von Knoten keine Zeit „dauert“, sondern lediglich kausal nacheinander geschieht. Die Abfolge von Ursachen und Wirkungen selbst ist die Zeit.“

In den Gleichungen, die Raum- und Materie-Körnchen beschreiben, kommt die Variable „Zeit“ daher nicht mehr vor. Veränderung ist allgegenwärtig, aber die elementaren Prozesse können nicht mehr in einer gemeinsamen Abfolge von Augenblicken angeordnet werden. Die Illusion, dass wir in einem Raumzeitkontinuum leben, ist nur unser unscharfer Blick auf das dichte Gewimmel elementarer Prozesse zwischen wechselwirkenden Raum- und Materie-Quanten. Jörg Resag: „Die klassische Zeit stellt sich also als emergentes Phänomen heraus, das sich unter bestimmten Bedingungen aus der Quantenwelt herausbilden kann, sie entsteht also erst durch eine Art Mittelungsprozess über die Quantenwelt.“

Kosmologische Konsequenzen der SQG:Es kann jedoch mit gewissen Vereinfachungen gezeigt werden, dass die diskrete Struktur der Zeit die Singularität am Urknall und in einem Schwarzen Loch verhindert und die gravitative Energieverdichtung ab einer gewissen Aufnahmegrenze der Raumzeit in eine Abstoßung umschlägt. Daraus folgt, dass bei Erreichen einer maximalen Materieverdichtung im Inneren eines Schwarzen Lochs die Kontraktion in Abstoßung umschlägt. Von außen gesehen passiert das wegen Zeitdilatation aber erst „nach sehr langer Zeit“.

Die SQG lässt in gewissen Grenzen auch einen Blick auf die Zeit vor dem Urknall zu. Danach ging diesem eine Phase der Kontraktion des Kosmos voraus, die aber nicht in eine Singularität abstürzte. Der Raum soll darüber hinaus durch 2 Zustandsgrößen beschreibbar sein, seinem Volumen und seiner Orientierung. Letztere kann 2 entgegengesetzte Werte annehmen und lässt sich am besten mit dem 2-dimensionalen Analogon der Oberfläche eines Luftballons beschreiben, das auch schon zur Verdeutlichung der Raumexpansion verwendet wurde. Wenn man die Luft heraus lässt, den Ballon umstülpt, das Innere nach außen kehrt und den Ballon so wieder aufbläst, erhält man einen Raum mit entgegengesetzter Orientierung. Etwas Analoges hat sich nach der SQG am Urknall vollzogen. Vor Absturz in die Singularität wurde also eine quantenphysikalische Gegenkraft in Form einer abstoßenden Gravitation wirksam, die diesen Absturz verhinderte. Die Begründung für diese Gegenkraft ergibt sich nach der Theorie aus der diskreten Struktur der Raumzeit. Bei Annäherung an den Urknall (aus beiden Richtungen) stehen nur endlich viele Zeitpunkte und Raumelemente „zur Aufnahme von Energie“ zur Verfügung. So wie ein Schwamm nicht beliebig viel Wasser aufnehmen kann und im vollgesogenen Zustand Überschusswasser ausstößt, so kann die diskrete Raumzeit bei Annäherung an den Urknall nur begrenzt Energie aufnehmen, die Überschussenergie wird als Gegenkraft wirksam. An einem Grenzwert höchst möglicher Energiedichte hat sich der Raum umgestülpt und dann wieder aufgebläht, die Energiedichte nahm wieder ab („Big Bounce“).Ob diese auf kleinsten Abstandsskalen wirkende Gegenkraft auch für die weitere Expansion des Universums nach dem Urknall verantwortlich ist, lässt sich mit dieser Theorie heute (noch) nicht erklären. Sie liefert auch (noch) keine weiteren Aussagen, über die Zeit vor dem Urknall. Wir wissen auch nicht, was der Wechsel der Orientierung am Urknall bedeutete. Bestand z.B. das Universum davor aus Anti-Materie?

Bewertung: Die SQG ist noch keine durchgängige Theorie und es gibt für sie auch noch keine hinreichende Bestätigung in dem Sinn, dass eine spezifische Vorhersage der Theorie in der physikalischen Wirklichkeit nachgewiesen wurde. Es ist auch heute noch nicht endgültig geklärt, ob die so definierte Theorie in sich konsistent ist und ob sie im klassischen Grenzfall die Ergebnisse der Allgemeinen Relativitätstheorie reproduziert. Sie beruht jedoch auf einer konsequenten Erweiterung der Quantentheorie auf die Raumzeit, liefert eine Lösung für das Singularitäten-Problem von Urknall und Schwarzen Löchern und ermöglicht die Beschreibung einiger (vermuteter) Phänomene Schwarzer Löcher. Die SQT wird gewöhnlich in vier Dimensionen und ohne Supersymmetrie formuliert. Sie ist zwar kompatibel mit diesen Konzepten, benötigt sie aber nicht.

Stringtheorie: (Zusammenfassung, überwiegend nach Wikipedia)Als Stringtheorie bezeichnet man eine Sammlung eng verwandter physikalischer Theorien, die sogenannte Strings mit eindimensionaler räumlicher Ausdehnung als fundamentale Objekte zur Beschreibung von Elementarteilchen verwendet. Elementarteilchen entsprechen dabei Schwingungsanregungen der Strings, wobei die Frequenz nach der Quantenmechanik einer Energie entspricht. Allerdings lässt sich diese Theorie nach bisherigem Kenntnisstand nur in einem 10-, 11- oder 26-dimensionalen Raum-Zeit (dabei jeweils 1 Zeitdimension) konsistent formulieren. Ursprünglich (ca. 1960) konzipiert zur Beschreibung von Gluonen, wird diese Theorie seit den 1980er Jahren als Kandidat für die Vereinheitlichung der Gravitation mit Standardmodell betrachtet. Dies war im Wesentlichen dadurch motiviert, dass diese Theorien ein Teilchen mit Spin 2 enthalten, was eine gewünschte Eigenschaft für das Graviton war. Auch wurde klar, dass eine Vereinbarkeit mit dem Kausalitätsprinzip eine supersymmetrische Version der Stringtheorie erfordert. („Superstringtheorie“; Supersymmetrie: s. Kap. 5). Seit Mitte der 1990er Jahre wird vermutet, dass die bis dahin bekannten Superstringtheorien und die 11-dimensionale Supergravitation (eine Feldtheorie, welche die ART um super-symmetrische Felder erweitert) miteinander verbunden und Teil einer umfassenderen Theorie („M-Theorie“) sind, die auch höher-dimensionale Objekte („Branes“) umfasst. Es gibt allerdings bisher nur mathematische Teilergebnisse zur Stützung dieser Vermutung.

Kritik: (überwiegend nach Sabine Hossenfelder, das hässliche Universum)1) Die Stringtheorie soll Phänomene beschreiben, die erst ab Teilchenenergien >= 1015 GeV (Vereinheitlichungsenergie) bzw. 1018 GeV (Planckenergie) sichtbar werden. Zwischen diesen Energien und heute erreichbaren Energien (LHC <= 104 GeV ) klafft eine riesige Lücke.Auch Vorhersagen der Supersymmetrie konnten bisher trotz enormen Forschungsaufwandes nicht verifiziert werden (s. Kap.5)2) Stringtheorien postulieren eine Welt mit bis 25 zu Raumdimensionen, die Großteils (da nicht sichtbar) kompaktifiziert (aufgerollt) sein sollen, also von endlicher Größe wie eine höher-dimensionale Kugeloberfläche. Dies führt zu einer riesigen Anzahl (~10500) von möglichen Konfigurationen (je nach Wahl der Kompaktifizierung), was zu jeweils einer anderen Theorie im niedrigen Energiebereich führt. Insbesondere ist unklar, ob und in welcher Weise sich dabei auch das bekannte Standardmodell der Elementarteilchen reproduzieren lässt. Die Vielzahl möglicher Lösungen nährt bei manchem Theoretiker die Idee vom Multiversum. Viele Kritiker meinen aber, dass die Stringtheorie (wie auch die Multiversum-Theorie) keine falsifizierbare wissenschaftliche Theorie ist.

Allerdings gibt es auch einige mathematische Erfolge zu verzeichnen: 1) Mit dem Konzept der Branes lassen sich Gesetze der Thermodynamik Schwarzer Löcher reproduzieren.2) Es wurde erkannt, dass die Gravitation als Eichtheorie darstellbar ist. 1997 wurde die AdS-CFT-Korrespondenz zwischen einer Stringtheorie auf einer 5D-Anti-de-Sitter-Raumzeit mit Gravitation und einer 4D-konformen Feldtheorie ohne Gravitation entdeckt. Man sagt auch, die Feldtheorie operiere nur auf dem 4D-Rand der 5D-AdS-Raumzeit, d.h. die Raumzeit dieser Eichtheorie hat eine Raumdimension weniger als die der dualen Gravitationstheorie. Wie ein Hologramm erscheint das Universum 3-dimensional, kann aber auf einer Fläche dargestellt werden. AdS-CFT ist somit eine konkrete Realisierung des holographischen Prinzips. Es ist sogar in der weiteren Erforschung der Korrespondenz gelungen, die Dualität auch für andere Raumzeiten als AdS zu verallgemeinern. In der Verallgemeinerung sprechen die Theoretiker daher von einer fundamentalen Dualität von Eichung und Gravitation. Dualität meint in diesem Zusammenhang, dass es zwei gleichwertige Beschreibungen der Natur gibt.

8. Physikalische Theorien der Kosmologie

Die allgemeine Relativitätstheorie ist von zentraler Bedeutung für das moderne Verständnis des Kosmos. Da die Entwicklung des Universums maßgeblich durch die Gravitation bestimmt ist, ist die Kosmologie eines der Hauptanwendungsgebiete der ART. Im „Standardmodell der Kosmologie“ wird das Universum (in Übereinstimmung mit allen Beobachtungen) als homogen und isotrop, also großräumig gleichförmig in alle Richtungen, angenommen. Auf Basis dieser Annahme vereinfachen sich die Feldgleichungen der ART zu den sogenannten Friedman-Gleichungen. Die Lösung dieser Gleichungen impliziert ein dynamisch expandierendes oder kontrahierendes Universum. Mehrere unabhängige Ergebnisse der beobachtenden Kosmologie stützen mittlerweile das sogenannte Urknall-Modell eines vor etwa 13,8 Milliarden Jahren aus einem „Urknall“ entstandenen und seither expandierenden Universums. (Siehe „Das Universum“, Teil 2).

Der Urknall selbst und die ersten Sekundenbruchteile danach kann mit der heutigen Physik nicht beschrieben werden. Innerhalb der Planck-Zeit sind ART und Quantentheorie nicht miteinander vereinbar. Für eine für Planck-Dimensionen benötigte „Quantentheorie der Gravitation“ gibt es bisher nur einige interessante, aber unbewiesene Ansätze (s. Kap. 7).Aber auch für den Zeitraum (nach dem Urknall), in dem die ansatzweise entwickelte GUT-Theorie (s. Kap. 6) eine Vereinigung der elektroschwachen und starken Kraft postuliert (Zeit < 10-34 Sekunden, Energieskala > 10-15 GeV, Temperatur > 1028 K) und darunter (bis zur elektroschwachen Symmetriebrechung bei etwa 10-10 Sekunden) kann man sich dem Geschehen nur mittels heuristischer Überlegungen auf Basis dieser Theorie nähern.

Das Standardmodell der Kosmologie:Das Standardmodells der Kosmologie (Λ-CDM Modell des Universums) beinhaltet die Annahme, dass das Universum heute zu etwa 26% aus nicht-sichtbarer „Dunkler Materie “ (Cold Dark Matter CDM) und zu etwa 68% aus „Dunkler Energie“ (darstellbar als kosmologische Konstante Λ) und nur zu etwa 5% aus normaler baryonischer Materie (alle Sterne, Planeten, Gas- und Staubnebel, auch Schwarze Löcher) zusammensetzt. Neutrinos und Strahlungsenergie machen demnach heute weniger als 1% aus.

Dunkle Energie: Bei der Expansion des Universums spielt auch der Druckbeitrag eine wichtige Rolle. Astronomischen Beobachtungen zufolge ist unser Universum seit etwa 5 Milliarden Jahren in eine Phase eingetreten, in der sich seine Expansion mit der Zeit mehr und mehr beschleunigt. Das lässt sich durch einen Zusatzterm in Einsteins Gleichungen der ART herbeiführen, die so genannte kosmologische Konstante. Diese lässt sich als zeitlich konstante Energiedichte interpretieren, die den Raum erfüllt und damit einen gleichmäßigen negativen Druck in diesem erzeugt, der eine abstoßende Gravitation bewirkt. Da man über die Natur dieser Energie nichts weiß, wird sie „Dunkle Energie“ genannt. Auch die mittels anderer Beobachtungen abgeschätzte Masse-Energiedichte des Universums spricht dafür, dass es diese Dunkle Energie gibt. Die sich aus den Beobachtungen ergebende Energiedichte ist jedoch um viele Größenordnungen niedriger als die von der Quantenphysik postulierte und theoretisch (bisher falsch!?) abgeschätzte Vakuumenergie (s. Kap. 9).

Dunkle Materie: Die Vermutung dunkler (d.h. nicht sichtbarer) Materie wird durch mehrere unabhängige Beobachtungen gestützt. Sie soll aus hypothetischen Materieteilchen bestehen, die (wie die Neutrinos) nur gravitativ und schwach wechselwirken, aber sehr viel schwerer sein (einige zehn bis 1000-fache Protonenmasse). Erste theoretische Kandidaten sind WIMP (engl. weakly interacting massive particles) und Axion. Die WIMP's ergeben sich aus SUSY-Modellen (s. Kap. 6), das Axion aus einer theoretischen Lösung des „starken CP-Problems“

(s. Kap. 5). Beide Teilchen konnten auch mit modernsten Detektoren bisher nicht beobachtet werden. Es gibt auch einige kosmologische Beobachtungen, die gegen dunkle Materie in Form von dunklen, die Galaxien einhüllenden Teilchenwolken sprechen. Als ein Ausweg werden daher auch neuere, mit der ART hinreichend kompatible „modifizierte Gravitationstheorien“ diskutiert. Diese erklären die galaktischen Beobachtungen besser als dunkle Materieteilchen, funktionieren aber nicht besonders gut bei Entfernungen weit über oder unter galaktischen Größen. Außerdem sind die zusätzlichen Felder einer modifizierten Gravitationstheorie nicht „schön“ (d.h. sie besäßen einige untypische Eigenschaften).

Eine wichtige Frage ist die nach der Treibkraft des Urknalls. Eine mögliche Antwort gibt die Schleifen-Quanten-Theorie (s. Kap. 7), die meisten Kosmologen favorisieren jedoch die Inflationstheorie. Danach war das Universum in der GUT-Ära mit einem Inflaton genannten Energiefeld ausgefüllt, das für einen winzigen Sekundenbruchteil eine enorme abstoßende Gravitation erzeugte. In weniger als ein „Billionstel x Billionstel x Milliardstel“ Sekunden soll sich das Universum explosionsartig um einen Faktor 1030 bis 1050 ausgedehnt haben. (Die Relativitätstheorie verbietet nicht die überlichtschnelle Ausdehnung des Raumes selbst).Nach der ART kann eine abstoßende Gravitation grundsätzlich durch positive Energie bewirkt werden, wenn diese Energiedichte auch bei Expansion zeitlich konstant ist und damit einen negativen Druck im Vakuum erzeugt, was bei gewissen Potentialformen des Inflatonfeldes theoretisch kurzzeitig möglich ist. Nach etwa 10-33 Sekunden endete diese Inflationsphase, das Inflaton zerfiel, seine Energie wandelte sich – so die Hypothese - in GUT-Teilchen um, dann zeitgleich mit Abspaltung der Starken Kraft (GUT-Symmetriebrechung) in Quarks, Anti-Quarks, Elektronen und Positronen wobei ein kleiner Überschuss von Materie gegenüber Anti-Materie entstand (s. Kap. 6). Die Herkunft des Inflaton-Feldes und die Ursache seiner abstoßenden Wirkung sind ebenso unbekannt, wie auch der Mechanismus, nachdem das Inflaton in Materie zerfallen sein soll. Bei einigen der einfachsten Modelle entspricht die darauf beruhende Berechnung der Verteilung der Dichteschwankungen im frühen Universum weitgehend den Beobachtungen, die sich aus der kosmischen Hintergrundstrahlung ableiten lassen. Außerdem erklärt das Inflationsmodell sehr gut einige weitere kosmologische Beobachtungen (Stichworte: Horizontproblem, Flachheitsproblem).

Die Inflationstheorie gehört dennoch nicht zum Standardmodell der Kosmologie, es gibt zu viele offene Fragen und Modellparameter. 2014 gab es bereits 193 Inflationsmodelle (die meisten sagen eine ewige Inflation in immer neuen Blasen eines Multiversums voraus).

Endlichkeit oder Unendlichkeit des Universums: Der Theorie zu Folge kann das Universum endlich sein oder unendlich, die Expansion kann ewig weitergehen oder irgendwann abbrechen, sich auch umkehren. Die Krümmung des Raumes kann positiv sein (analog einer Kugeloberfläche), flach oder negativ – all das wissen wir nicht! Die Beobachtungen geben hier keinen endgültigen Aufschluss (siehe „Das Universum, Teil 2“). Ich glaube wie manche Physiker an den philosophischen Standpunkt, dass es „Unendlichkeit“ in der Physik (realen Welt) nicht gibt, entsprechend auch keine ewige Zeit (s. auch Kap. 10). George Ellis: Dies (dass nichts physisch Reales unendlich ist) sollte als philosophisches Grundprinzip gelten! (z.B. würde in einem unendlichen Universum, alles was eine von Null verschiedene Wahrscheinlichkeit hat, unendlich oft auftreten, z:B. gäbe es eine unendliche Anzahl genetisch identischer Zwillinge von jedem von uns).Hilbert (1925): „Unendlichkeiten benötigen wir, um die Mathematik zu vervollständigen, aber sie taucht nirgendwo im physikalischen Universum auf.“

9. Energiebegriff der modernen Physik, Vakuumenergie und dunkle Energie

Energie (gr. Energeia „wirkende Kraft“) bedeutet in der Physik die im System gespeicherte Arbeit oder die Fähigkeit des Systems, Arbeit zu verrichten (das Arbeitsvermögen eines physikalischen Systems). Die Energie eines Systems lässt sich selbst nicht direkt messen. Man kann Hilfsgrößen messen und daraus den Betrag der Energie errechnen. Es gibt verschiedene Formen von Energie und für jede Energieform gibt es Hilfsgrößen und Formeln zur Berechnung der Energie. Die Berechnung der Energieänderung eines physikalischen Systems läuft daraus hinaus, die Arbeit auszurechnen, die das System bei einer vorgegebenen Veränderung seines Zustandes leisten kann, oder die aufgewandt werden muss, um eine solche Veränderung herbeizuführen. Feynman „Es ist wichtig einzusehen, dass wir in der heutigen Physik nicht wissen was (das Wesen von) Energie ist. Wir haben kein Bild davon....... Jedoch gibt es Formeln zur Berechnung einer numerischen Größe und wenn wir alles zusammenaddieren, ergibt es immer die gleiche Zahl. Es ist eine abstrakte Sache insofern, als es uns nichts über den Mechanismus oder die Gründe für die verschiedenen Formeln mitteilt.“

Energie kann in verschiedenen Energieformen vorkommen. Die verschiedenen Formen von Energie sind in einander umwandelbar (siehe: „Klassische Physik“). Die Energie eines mechanischen Systems kann dabei immer als Summe von kinetischer und potentieller Energie dargestellt werden. Diese beiden Begriffe werden auch über die klassische Mechanik hinaus in fast allen Bereichen der Physik verwendet. Eine der grundlegenden Erkenntnisse der Physik ist, dass bei allen Umwandlungen der Betrag der Energie unverändert bleibt. Energie ist eine Erhaltungsgröße, die Gesamtenergie in einem abgeschlossenen System bleibt konstant (Energieerhaltungssatz). Das Noether-Theorem (siehe Kap. 4) besagt, dass dieser Erhaltungssatz aus der Zeitinvarianz der Naturgesetze folgt. Dementsprechend definiert man den Energiebegriff in der theoretischen Physik: Wenn die physikalischen Gesetze nicht davon abhängen, zu welchem Zeitpunkt man sie betrachtet, so gibt es eine Erhaltungsgröße - Energie genannt - die zeitlich konstant ist. Der sogenannte „zweite Hauptsatz der Thermodynamik“ setzt der Umwandelbarkeit jedoch prinzipielle Grenzen, insbesondere ist thermische Energie nur eingeschränkt in andere Energieformen umwandelbar.

Äquivalenz von Masse und Energie Eine grundlegende Erkenntnis der Speziellen Relativitätstheorie (SRT) ist der Satz von der Trägheit der Energie. Mit jedem Energiebetrag ist ein proportionaler Betrag Masse verknüpft. Masse und Energie sind äquivalent, in einander umwandelbar, nach Einsteins berühmter Formel E=mc2, wobei c die Lichtgeschwindigkeit ist. Das Prinzip besagt, dass die Masse eines Körpers einer Energiemenge entspricht, dass also Masse und Energie in Wirklichkeit zwei Zustandsformen derselben Sache sind. Wenn ein Teilchen (z.B. Elektron) auf sein Antiteilchen (Positron) trifft, vernichten sie sich gegenseitig zu Strahlungsenergie. Auch der umgekehrte Prozess wurde schon experimentell nachgewiesen. Beim Zusammenführen von Protonen und Neutronen zur Bildung eines Atomkerns wird ein Energiebetrag (in Form von Strahlung) frei, der umso größer ist, je stabiler die Bindung der Bausteine im Kern ist. Diese Abgabe von Energie führt zu einem entsprechenden Massen-defekt des Kerns, d.h. der gebildete Kern ist „leichter“ als die Summe seiner Bausteine. Ein massebehaftetes Teilchen, das auf Lichtgeschwindigkeit beschleunigt werden soll, setzt dieser Beschleunigung einen mit zunehmender Geschwindigkeit (d.h. kinetischer Energie) wachsenden Trägheitswiderstand entgegen, so dass es niemals Lichtgeschwindigkeit erreichen kann. Energie unterliegt der Gravitation und erzeugt Gravitation. Ein Lichtstrahl

wird durch Schwerefeld einer großen Masse abgelenkt, ein Körper wird schwerer, wenn man ihn erwärmt. Energie ist daher träge und wägbar. Energie ist wie Masse ein relativistischer Begriff, d.h. der gemessene Betrag hängt vom gewählten Bezugssystem ab. Die Ruhemasse m0 eines Teilchens ist jedoch eine absolute Größe. Daher kann ein (ruhender) Körper nicht mehr Energie abgeben, als seiner gesamten Masse entspricht. Der Energieerhaltungssatz bekommt dadurch eine erweiterte Bedeutung. Alles Geschehen im Universum beruht daher auf demselben Grundstoff, der „Masse-Energie“. Diese tritt in unterschiedlichen Formen in Erscheinung, auch als Materie, und wandelt sich nach den Gesetzmäßigkeiten der Physik, bleibt aber in seiner Menge unverändert erhalten (sofern das Universum ein geschlossenes physikalisches System ist).

Heisenberg: „Da Masse und Energie nach der Relativitätstheorie im Wesentlichen das gleiche sind, kann man sagen, dass alle Elementarteilchen aus Energie bestehen. Man kann also die Energie als die Grundsubstanz, als den Grundstoff der Welt betrachten. In der Tat hat sie die wesentliche Eigenschaft, die zu dem Begriff Substanz gehört: sie bleibt erhalten.“

Kant (zum Begriff Materie): „Bei allem Wechsel der Erscheinungen beharrt die Substanz, und das Quantum derselben wird weder vermehrt noch vermindert.“

Nietzsche: „Und wisst ihr auch was mir „die Welt“ ist? Soll ich sie euch in meinem Spiegel zeigen? Diese Welt: ein Ungeheuer von Kraft, welche nicht größer, nicht kleiner wird, die sich nicht verbraucht, sondern nur verwandelt, als Ganzes unveränderlich groß, ein Haushalt ohne Ausgaben.., aber ebenso ohne Zuwachs,...vom „Nichts“ umschlossen als von seiner Grenze, .....nichts unendlich Ausgedehntes, sondern als bestimmte Kraft einem bestimmten Raum eingelegt, und nicht einem Raum der irgendwo leer wäre, vielmehr als Kraft überall, als Spiel von Kräften und Kraftwellen,...,hier sich häufend und zugleich dort sich mindernd, ein Meer in sich selber stürmender und flutender Kräfte, ewig sich wandelnd, ewig zurück laufend, mit ungeheuren Jahren der Wiederkehr.....“

Energiebegriff in der Quantenmechanik:In der Quantentheorie wird nun die Energie eines Teilchens in einen Zusammenhang gebracht mit der Frequenz des Schwingungsvorgangs der Teilchenwelle. Dies ergibt sich aus einem Grundphänomen allen atomaren Geschehens, des Dualismus von Welle und Teilchen. Für Photonen (Lichtteilchen) ist der Proportionalitätsfaktor zwischen Energie des Photons und Schwingungsfrequenz des ausgesandten Lichts das Plancksche Wirkungsquantum.

Licht (elektromagnetische Strahlung) transportiert elektromagnetische Energie in Form schwingender elektromagnetischer Felder. Die Strahlungsenergie für monochromatisches Licht ist gegeben durch N x h x f (N= Zahl der Photonen, f deren Frequenz). Für beliebiges Licht ist über die spektrale Verteilung n(f) des Photonenflusses zu integrieren. Die Lichtintensität ist im klassischen Wellenmodell nur vom Quadrat der Schwingungsamplitude abhängig, d.h. bei höherer Intensität (Gesamtenergie) und gleicher Frequenz sind mehr Photonen unterwegs, bei höherer Frequenz und gleicher Intensität (Amplitude) sind weniger Photonen mit jeweils mehr Energie unterwegs, die Strahlung wird härter, da die einzelnen Photonen mit mehr Energie eine stärkere Wechselwirkung mit Materie zeigen.

Eine analoge Teilchen-Wellen-Beziehung gilt für alle Elementarteilchen (De Broglie Welle)Im Teilchenbild sprechen wir von dessen Ort, Impuls und Energie, im Wellenbild von Wellenlänge, der Frequenz und der Ausbreitungsgeschwindigkeit der Welle. Dabei bestimmt

die Intensität (Amplitude) der Wellenbewegung an einem Ort die Wahrscheinlichkeit, das Teilchen an diesem Ort (experimentell) lokalisieren zu können. Der Energieerhaltungssatz verlangt nun, dass der experimentelle Nachweis des Teilchens an einem bestimmten Ort zum unmittelbaren Zusammenbruch der Wellenfunktionen an allen anderen Orten führen muss, d.h. die Wahrscheinlichkeit das Teilchen (und damit die in dem Teilchen konzentrierte beträchtliche Energie) gleichzeitig noch an einem anderen Ort feststellen zu können, wird in dem Augenblick Null, wo es an einer bestimmten Stelle lokalisiert worden ist.In dieser sprunghaften Änderung der Wellenfunktion durch den Beobachtungsakt drückt sich die Tatsache aus, dass die Wellen in der Quantenmechanik nicht an sich seiende physikalische Realitäten, sondern nur Ausdruck unserer Kenntnis dieser Realität sind (und sich daher durch Erwerb einer neuen Erkenntnis auch schlagartig ändern können).

Betrachten wir ein Teilchen, dessen Ort zu einem bestimmten Zeitpunkt genau bestimmt wurde, so muss seine Wellenfunktion außer an der beobachteten Stelle überall Null sein. Ein derartiges Wellenpaket hat nun gar keine definierte Frequenz oder Wellenlänge, d.h. diese Größen und damit auch Energie und Impuls des Teilchens sind völlig unbestimmt. Umgekehrt erfordert eine Energiebestimmung anhand der Frequenz der Wellenfunktion eine bestimmte Mindestdauer des Schwingungsvorgangs, d.h. schon aus der Planckschen Beziehung ergibt sich, dass auch die Energie eines Teilchens nicht für einen sehr kurzen Zeitraum bestimmt ist. Die quantitative Formulierung dieser Zusammenhänge erfolgt in der Heisenbergschen Unschärferelation. Die Unschärferelation hat auch eine Konsequenz für den Energiesatz: es ist möglich, dass der Energiesatz für einen sehr kurzen Zeitraum verletzt wird, in dem die Energie eines Teilchens unbestimmt ist. Daraus erklären sich auch experimentell bestätigte Phänomene wie z.B. der sogenannte Tunneleffekt. Dieser besagt, dass Teilchen ein Hindernis, zu dessen Überwindung ihre Energie nach der klassischen Physik nicht ausreicht, gleichwohl mit einer gewissen Wahrscheinlichkeit überwinden können, wenn das Hindernis hinreichend schmal ist, also in hinreichend kurzer Zeit überwunden werden kann. In dieser kurzen Zeit kann sich ein Teilchen die benötigte Energie sozusagen aus dem Nichts leihen.

Vakuumenergie und dunkle Energie Quantenfluktuation (auch Vakuumfluktuationen ) sind Teilchen-Antiteilchen-Paare, die in nach der Quantenfeldtheorie aus dem Vakuum entstehen und sofort wieder zerfallen. Weil diese Teilchen den Energieerhaltungssatz verletzen, können Sie nur innerhalb der Grenzen der Heisenbergschen Unschärferelation existieren, also nur innerhalb von Zeiträumen ∆t, die durch ∆E ∆t ~ = h gegeben sind, wobei ∆E die Masse-Energie der entstehenden Teilchen ist. Die Teilchen leihen sich für kurze Zeit Energie aus dem Nichts. Das Vakuum muss für diese Zeit eine negative Energie haben. Die sofortige gegenseitige Auslöschung (Annihilation) der entstehenden Teilchenpaare in zeitlichen Größenordnungen von 10-27 Sekunden verhindert jedoch eine globale Verletzung Energieerhaltungssatzes. Man nennt diese Teilchen deshalb auch virtuelle Teilchen. Sie sind prinzipiell nicht beobachtbar und könnten auch nur indirekt nachgewiesen werden. Der oft als indirekter Nachweis genannte Casimir-Effekt und die Lamb-Verschiebung sind jedoch ohne die Hypothese von Quantenfluktuationen erklärbar.Spontane Vakuumfluktuationen durch virtuelle Photonenpaare (Photonen sind ihre eigenen Antiteilchen) sind auch die Ursache für die theoretisch vorhergesagte Hawking-Strahlung schwarzer Löcher (s. Kap. 3).

Die Quantenfeldtheorie betrachtet ein Vakuum daher nicht als völlig leer, sondern erfüllt mit einer Vakuumenergie. Selbst im Grundzustand, dem niedrigst-möglichen Energieniveau, ermöglicht die Heisenbergsche Unschärferelation die Bildung von Vakuumfluktuationen. Diese Energie kann man dem Vakuum nicht entziehen, weil das Vakuum ja schon der Zustand mit der niedrigsten Energie ist.

Die Vakuumenergie gilt auch als ein möglicher Kandidat für die dunkle Energie, welche in der Astronomie eine Erklärung für die beobachtete beschleunigte Expansion des Universums seit etwa 5 Milliarden Jahren bieten würde (s. Kap. 8). Diese soll etwa 68% der gesamten Masse-Energie des Universums ausmachen. Diese Erkenntnisse stützen sich im wesentlichen auf eine systematische Vermessung der Fluchtgeschwindigkeiten von Typ Ia Supernovae sowie eine Vermessung der sehr geringen Intensitätsschwankungen der kosmischen Hintergrundstrahlung. Aus den Beobachtungsdaten ergibt sich eine sehr geringe äquivalente Massendichte von ca. 10-26 kg / m³ (in Planck-Einheiten 10-123 mp/Vp ).Die physikalische Interpretation der „dunklen Energie“ ist völlig ungeklärt Sie kann rechnerisch durch eine positive kosmologische Konstante in den Grundgleichung der Allgemeinen Relativitätstheorie (ART) berücksichtigt werden, wie sie Einstein (aus anderen Gründen) ursprünglich vorgesehen hatte. Eine solche positive kosmologische Konstante würde zu einer gleichmäßig beschleunigten Ausdehnung des Universums führen.

Was die Vakuumenergie als geeigneten Kandidaten für dunkle Energie erscheinen lässt, ist die Tatsache, dass sie sich bei der Expansion des Raumes nicht verdünnt, also im sich ausdehnenden Universum immer die gleiche Energiedichte hat. Aus der ART und dem Energieerhaltungssatz lässt sich ableiten, dass eine solche Energieform in einem sich ausdehnenden Universum einen negativen (nach Innen saugenden) Druck und damit eine abstoßende Gravitation erzeugt, was zu einer gleichmäßig beschleunigten Raumausdehnung führt. Man kann sich das anschaulich verdeutlichen: Stellen wir uns vor einen hohlen Zylinder vor, dessen Inneres mit einer Art Raumenergie gefüllt ist. Diese Raumenergie soll sich nicht verdünnen, wenn man einen Kolben weiter aus dem Zylinder herauszieht und so den Raum im Zylinder vergrößert. Es muss also beim Herausziehen Energie aufgewendet werden, um die zusätzliche Raumenergie im größer werdenden Innenraum des Zylinders zu erzeugen. Daraus folgt, dass die Raumenergie eine innere Zugkraft (einen negativen Druck) besitzen muss, die den Kolben nach innen zieht. Gegen diese Zugkraft muss man den Kolben nach außen ziehen, was genau die notwendige Energie bereitstellt.

Es gibt jedoch ein entscheidendes Problem: die theoretisch vorhergesagten Werte der Vakuumenergie liefern jedoch ein um viele Größenordnungen (Faktor ~ 10120) größeres Ergebnis als die Beobachtungsdaten der beschleunigten Ausdehnung erwarten lassen. Eine Kalkulation der Vakuumenergie auf Basis der Quantenfeldtheorie basiert auf der Aufsummierung der Nullpunktenergien der Schwingungen der Quantenfelder der Materie; diese betragen ½ h f für (harmonisch oszillierende) Schwingungen der Frequenz f. (Die Nullpunktenergie ist die Energie des Systems am absoluten Temperaturnullpunkt.)Die Aufsummierung über alle möglichen Anregungen aller bekannten Quantenfelder mit beliebig kurzen Wellenlängen (bzw. hohen Frequenzen) ergäbe den Wert „Unendlich“.Unter der Annahme einer körnigen Struktur der Raumzeit mit Wellenlängen >= der Planck-Länge ergäbe sich immer noch eine äquivalente Massendichte von 1094 kg pro m³ (10-3 mp/Vp

in Planck-Einheiten), d.h. einen Faktor 10120 zu den Beobachtungsdaten.

Ohne Berücksichtigung der Gravitation (Krümmung der Raumzeit) im Rahmen der Quantenfeldtheorie (QFT) kann zu der so definierten Energie des Vakuums aber eine beliebige Konstante addiert werden ohne irgendwelche messbaren Vorhersagen der QFT zu ändern, da dann nur Energiedifferenzen messbar sind.

10. Der Zeitpfeil

Was ist Zeit ? Eine der bekanntesten Definitionen stammt von Isaac Newton, der im Jahr 1687 schrieb: „Die absolute, wahre und mathematische Zeit verfließt an sich und vermöge ihrer Natur gleichförmig und ohne Beziehung auf irgendeinen äußeren Gegenstand.“ Dies entspricht unserer Intuition, nach der die Zeit, gleichförmig und unveränderlich, wie ein Strom von der Vergangenheit in die Zukunft fließt, an der Übergangsstelle das unsichere Konzept des „Jetzt“. Was ist das Wesen der Zeit? Warum kennt die Zeit anscheinend nur eine Richtung, von der Vergangenheit in die Zukunft? Dieser globale „Zeitpfeil“ wird in verschiedenen Ausprägungen sichtbar – inwieweit sind diese voneinander abhängig? Gibt es einen grundlegenden, elementaren Zeitpfeil, aus dem sich die anderen Ausprägungen ergeben?

Ausprägungen des Zeitpfeils:Der psychologische Zeitpfeil beschreibt unsere subjektive Unterscheidung zwischen vergangenen und zukünftigen Ereignissen. Wir können uns an die Vergangenheit erinnern,aber nicht an die Zukunft. Der psychologische Zeitpfeil beruht auf unserem Gedächtnis.M. Bojawald: „Nur durch unser Gedächtnis werden wir auch der Zukunft gewahr. Der jüngere Teil der Vergangenheit wird in unserer Erfahrung als Teil der Zukunft der älteren Vergangenheit rekonstruiert.“

Die mathematische Zeit ist eine abstrahierte Zeit (ein Parameter „t“ in den Naturgesetzen), verschieden von der gemessenen Zeit. Sie tritt in den physikalischen Bewegungsgleichungen als äußerer Parameter auf, der die zeitliche Entwicklung eines physikalischen Systems kennzeichnet, ohne selbst vom System beeinflusst zu werden.Die gemessene Zeit: Wir messen keine Zeit, sondern immer nur Bewegung (Veränderung) von Materie. Auch Newtons Zeitbegriff kommt nicht ohne einen materiellen Vorgang (eine Art Uhr) aus, an der wir das Vergehen der Zeit festmachen können. Nach der speziellen Relativitätstheorie hängen Raum und Zeit zusammen, sind ineinander umwandelbar. Die gemessene Zeit hängt daher vom Bewegungszustand des Beobachter ab.

Der kausale Zeitpfeil ist festgelegt durch die Abfolge kausal verknüpfter Ereignisse. Danach gehen Ursachen ihren Wirkungen stets voraus. Auch in der modernen Physik geht man von der generellen Gültigkeit des Kausalgesetzes aus. Die Lichtgeschwindigkeit legt die Grenzen der Raum-Zeit fest, in denen Ereignisse in einem Kausalzusammenhang stehen können. Ihre naturgesetzliche Konstanz garantiert für jeden Beobachter die gleiche zeitliche Abfolge von Ursache vor Wirkung (s. unten).

Der thermodynamische Zeitpfeil beruht auf dem 2. Hauptsatz der Thermodynamik: Die Zukunft ist danach die Zeitrichtung, in der die Entropie (der Grad der Unordnung eines physikalischen Systems) zunimmt. Carlo Rovelli: „Das wesentliche Phänomen, dass die Zukunft von der Vergangenheit unterscheidet, ist das Fließen von Wärme von warm nach kalt.“ Ein interessanter Punkt ist, dass dieser Zeitpfeil im thermodynamischen Gleichgewicht nicht existiert: Für diesen Gleichgewichtszustand gibt es keine thermodynamisch definierte Vergangenheit und Zukunft; der Gleichgewichtszustand ist sozusagen zeitlos (s. unten).

Der kosmologische Zeitpfeil ist festgelegt durch die Evolution des Universums, das vor etwa 13,8 Milliarden Jahren mit einem unvorstellbar heißen und dichten Urknall begann und sich seither ausdehnt und abkühlt. Ob es sich bis in alle Ewigkeit ausdehnen wird, ist nicht sicher bekannt. Nach den derzeit vorliegenden Beobachtungen sieht es so aus (s. „das Universum, Teil 2“). Aber selbst wenn sich das Universum irgendwann wieder zusammenzieht, sieht der

zusammenstürzende Kosmos anders aus als der früher Expandierende: In beiden Richtungen (Expansion oder Kontraktion) nimmt die Zahl ausgebrannter Sterne und die Gesamtmasse Schwarzer Löcher zu, und der Wasserstoff- und Helium-Vorrat des Universums zu Gunsten schwererer Elemente ab. Somit kann man auch an der Zusammensetzung des Universums sein Alter, und damit die Zeitrichtung ablesen.

Zeitumkehrinvarianz der NaturgesetzeDie Gesetze der Physik sind Zeitumkehr-invariant, d.h. diese Gesetze bleiben unverändert gültig, ganz gleich, in welche Richtung die Zeit läuft. Jeder physikalische Prozess könnte in exakter Übereinstimmung mit den Naturgesetzen auch rückwärts ablaufen. Dies besagt folgendes: Ist S(t) eine Lösung eines Systems physikalischer Gleichungen, so ist auch S(-t) eine mögliche Lösung. Zum Beispiel bedeutet die Tatsache, dass ein angeregtes Atom unter Aussendung eines Photons in den Grundzustand fallen kann, dass auch der umgekehrte Vorgang, die Anregung eines Atoms im Grundzustand durch ein absorbiertes Photon, nach der gleichen Gesetzmäßigkeit möglich ist. Es gibt 2 Ausnahmen:1) Statistische Gesetze implizieren eine Zeitrichtung; so beruht der thermodynamische Zeitpfeil auf der Erkenntnis, dass sich ein physikalisches System (in aller Regel) von einem unwahrscheinlicheren Zustand zu einem Wahrscheinlicheren entwickelt. 2) Es gibt einige quantenphysikalische, durch die schwache Kraft vermittelte Prozesse, welche die CP- und damit die T-Symmetrie verletzen (s. Kap. 4). Dies kann möglicherweise auch eine Begründung für die Asymmetrie zwischen Materie und Anti-Materie im Universum liefern (s. Kap. 6). Eher unwahrscheinlich ist ein Zusammenhang mit dem globalen Zeitpfeil.

Zeit in der Relativitätstheorie (siehe Aufsatz „Raum-Zeit-Relativität“):Zeit in der SRT: Es gibt gar keine absolute Zeit! Raum und Zeit hängen zusammen, sind ineinander umwandelbar. Für unterschiedlich bewegte Bezugssysteme ergeben sich für den Abstand zweier Ereignisse in der Raumzeit unterschiedliche Projektionen auf die Raum und die Zeitachsen und damit unterschiedliche Raum- und Zeitabstände. In einem bewegten Bezugssystem vergeht die Zeit langsamer als in einem dazu Ruhenden, d.h. die Zeit, die ein (ruhender) Beobachter auf einer schnell vorbeifliegenden Uhr abliest, läuft umso langsamer, je schneller sich die Uhr bewegt. Der Zeitabstand von Ereignissen wird unterschiedlich wahrgenommen. Ereignisse, die in dem einen Bezugssystem gleichzeitig erscheinen, finden in dem anderen zu verschiedenen Zeiten statt, was in dem einen Bezugssystem jetzt ist, kann für einen Beobachter im sich dazu in gleichförmiger Bewegung befindlichen Bezugssystem in der Vergangenheit oder –abhängig von der Bewegungsrichtung – in der Zukunft liegen.So wie im 3-dimensionalen Raum die Wegstrecke zwischen zwei Raumpunkten vom eingeschlagenen Weg abhängt, so hängt in der vierdimensionalen Raumzeit die Eigenzeit zwischen zwei Raumzeit-Punkten vom Verlauf der Weltlinie zwischen diesen Punkten ab. Im 3-dimensionalen Raum hat der gerade Weg dabei die kürzeste Wegstrecke, in der 4-dimensionalen Raumzeit hat die gleichförmig geradlinige Bewegung die längste Eigenzeit.

Zeit in der ART: Die Zeit, die an einem Ort vergeht, hängt vom Gravitationsfeld ab, das die umliegenden Massen und Energien erzeugen. Denn diese bewirken eine Krümmung der Raumzeit. Gravitation lässt sich lokal nicht von einem beschleunigten Bezugssystem unterscheiden. Je stärker die Gravitationsbeschleunigung, desto langsamer vergeht die Zeit. Zwischen zwei vorgegebenen Raumzeit-Punkten wählt ein frei fallender Körper die Bahn mit der maximalen Eigenzeit (Krümmungslinien oder auch Geodäten der Raumzeit)

Kausalität: Die Relativität der Zeitabstände und der Gleichzeitigkeit von Ereignissen wird jedoch begrenzt, durch die Lichtgeschwindigkeit. Da sich im Raum nichts schneller als Licht bewegen kann, ist die Abfolge kausal verknüpfter Ereignisse für jeden Beobachter gleich, die

Wirkung kann nie zeitgleich oder nach der Ursache erfolgen. Unter der Annahme, dass jeder physikalische Prozess eine kausale Verknüpfung von Ereignissen ist (Kausalgesetz), wird der Prozess für jeden Beobachter in der zeitlichen Abfolge der Ereignisse vom Anfang bis zum Ende gleich ausschauen. (Wenn man Informationen instantan über weite Strecken übertragen könnte, dann könnte man in einem geeignet bewegtem Bezugssystem diese Informationen in unsere Vergangenheit schicken.)Für lichtschnelle Photonen vergeht keine Zeit. Umgekehrt kann die Zeit für materielle Körper nie stillstehen, da sich diese nie mit Lichtgeschwindigkeit bewegen können.

Vergangenheit - Gegenwart - Zukunft:Alles was wir „jetzt“ wahrnehmen, ist im Grunde genommen schon vergangen, denn vom Ereignis bis zur Wahrnehmung vergeht Zeit; Licht braucht Zeit um unser Auge zu erreichen, sei es von einem Buch in unserer Hand oder von einem fernen Stern. Wir können jedoch unter Berücksichtigung der Lichtlaufzeiten, gedanklich eine „Jetztscheibe“ aller Ereignisse im Kosmos definieren, die „wirklich“ jetzt, also „im Augenblick gleichzeitig“ stattfinden. Diese stellt eine Schnittfläche durch die Raumzeit dar, die sich „mit dem Fluss der Zeit“ von Augenblick zu Augenblick ändert. Die Relativitätstheorie besagt jedoch, dass diese unsere „Jetzt-Wirklichkeit“ sich von der Jetztscheibe eines relativ zu uns bewegten Beobachters unterscheidet, und zwar umso mehr, je höher dessen Geschwindigkeit ist. Dessen Jetztscheibe bildet zu unserer einen Winkel zwischen 0 Grad (ruhender Beobachter) und 45 Grad (Lichtgeschwindigkeit). Sie schneidet unsere Vergangenheits- bzw. Zukunfts-Weltlinie in einem Abstand von unserem „Jetzt“, der um so größer ist, je weiter der Beobachter von uns entfernt ist. Ein hinreichend weit entfernter Beobachter in unserer Jetztscheibe wird daher selbst bei alltäglicher relativer Geschwindigkeit zu seiner Jetzt-Wirklichkeit Ereignisse zählen, die – abhängig von seiner Bewegungsrichtung auf uns zu oder von uns weg - weit (z.B. viele tausend Jahre) in unserer Vergangenheit oder in unserer Zukunft liegen.Albert Einstein: „ die Scheidung zwischen Vergangenheit, Gegenwart und Zukunft hat nur die Bedeutung einer wenn auch hartnäckigen Illusion.“ Brian Greene: Real ist nur die Raumzeit in ihrer Gesamtheit

Der thermodynamische Zeitpfeil (s. „Klassische Physik, Kap. IV“) :Warum fließt Wärme immer zum Kälteren und nicht umgekehrt? Das liegt am 2. Hauptsatz der Thermodynamik (Entropiegesetz), welcher besagt, dass in einem abgeschlossenen physikalischen System die Entropie – das ist der Grad der Unordnung – mit der Zeit ansteigt. Der Grad der Unordnung eines solchen Systems kann dabei definiert werden, als die Menge der möglichen Umordnungen eines solchen Systems, welche keine Auswirkung auf seine makrophysikalischen Eigenschaften hat. Betrachtet man z.B. Gas, das einen Behälter gleichmäßig ausfüllt, so hat dieses System eine hohe Entropie, weil es unzählige mögliche andere Anordnungen dieser Gasmoleküle gibt, die an den makrophysikalischen Eigenschaften des Systems (Temperatur, Druck, Ausdehnungsvolumen) nichts ändern würden. Wäre das Gas aber in einer Ecke des Behälters zusammengedrückt, so wäre seine Entropie relativ niedrig, es hätte das Bestreben sich im Behälter auszudehnen, also einen Zustand höhere Unordnung (Entropie) anzunehmen. Das Entropiegesetz ist ein statistisches Gesetz, es besagt im Grunde genommen nur, dass sich physikalische Systeme mit hoher Wahrscheinlichkeit in Richtung „zunehmender Unordnung“ entwickeln, da es dafür viel mehr Möglichkeiten gibt. Es ist nicht ausgeschlossen, dass sich in einem gleichmäßig gefüllten Gasbehälter, alle Moleküle des Systems irgendwann einmal zusammengeballt in einer Ecke wiederfinden, es ist nur extrem unwahrscheinlich. Aus der Zeitinvarianz der Naturgesetze folgt, dass in einem System temporär auch einmal ein Zustand höherer Ordnung und damit geringerer Entropie einstellen kann. Dies ist jedoch umso unwahrscheinlicher, je mehr (mikrophysikalische) Freiheitsgrade ein thermodynamisches System besitzt.

Anmerkungen: (1) Man muss sich immer wieder klar machen, dass der zweite Hauptsatz der Thermodynamik nur eine Wahrscheinlichkeitsaussage für makroskopische Systeme ist, auch wenn die Wahrscheinlichkeit für ein zufälliges Absinken der Entropie verschwindend gering ist. So besagt der poincaréschen Wiederkehrsatz, dass ein mechanisches System mit beschränkten Teilchenbahnen im Lauf einer nie endenden Zeit den ursprünglichen Anfangsbedingungen unendlich oft beliebig nahekommt.(2) Der zweite Hauptsatz gilt nur für nahezu abgeschlossene Systeme, wobei der Zusatz nahezu berücksichtigt, dass man ein makroskopisches System nie absolut isolieren kann. In einem offenen System, das mit seiner Umgebung makroskopische Energiemengen austauschen kann, kann die Entropie sehr wohl abnehmen! Das beweist unsere eigene Existenz, denn jedes Lebewesen ist ein solches offenes System. Jedes Lebewesen ist ein System relativ hoher Ordnung, das sein Leben für eine Zeit durch einen Stoffwechsel erhält, der Energie in Form relativ hoher Ordnung aufnimmt (z.B. als Nahrung oder Sonnenlicht) und in Form höherer Unordnung (z.B. als Wärme) wieder abgibt.(3) Ein abgeschlossenes System befindet sich im thermodynamischen Gleichgewicht, wenn seine Entropie S maximal ist. Es findet kein Wärmefluss mehr statt, damit fehlt der Antrieb für jegliches makroskopische Geschehen. Dieses „Big Chill“ (Wärmetod) genannte Szenario könnte auch mal die Zukunft unseres Universums sein (s. Aufsatz „Das Universum, Teil 2“)

Entropie und Gravitation:Warum besitzt unser Universum überhaupt eine Entropie, die noch ansteigen kann? Das Universum muss seine Existenz in einem Zustand mit niedriger Entropie begonnen haben, zumindest in dem für uns sichtbaren Bereich. Nach Brian Greene hat das Universum beim Urknall durch die kosmische Inflation (s. Kap. 8) einen Zustand sehr niedriger Entropie angenommen, was den Entropie-Zeitpfeil, d.h. die Entwicklung des Universums in Übereinstimmung mit dem 2. Hauptsatz der Thermodynamik, erklären würde. Bei einem Gas, das sich frei in einem Raum ausbreiten kann, ist der Zustand größter Entropie gerade der, bei dem sich das Gas möglichst gleichmäßig im gesamten Raum ausgebreitet hat. Genau dieser Zustand stellt sich mit der Zeit ein, wenn man das Gas sich selbst überlässt. Das heiße Plasma, das nach der inflationären Expansion das Universum gleichmäßig erfüllte, weist jedoch eine niedrige Entropie auf, wenn man zusätzlich die Gravitation berücksichtigt. Die Gravitation möchte Materie zusammenziehen, deshalb war die Gesamtentropie des Universums unmittelbar nach dem Urknall, als das Universum gleichmäßig mit Wasserstoff- und Helium-Gas ausgefüllt war, am niedrigsten (der unwahrscheinlichste Zustand) und hat seither global gesehen immer zugenommen. Schwarze Löcher z.B. haben die höchste Entropie aller bekannten physikalischen Systeme gleicher Masse. (s. Kap. 3)Gravitation ist demnach die Hauptquelle für anwachsende Entropie im Universum. Inflation wäre die kosmische Ursache für die minimale Anfangsentropie des Universums, beides zusammen begründet den thermodynamischen Zeitpfeil. Diese ist daher eng verknüpft mit dem kosmologischen Zeitpfeil.

Entropische Gravitation ist eine physikalische Theorie, die die Gravitation als entropische Kraft beschreibt. Das bedeutet, dass sie nicht als fundamentale WW verstanden wird, die über Austauschteilchen wirkt. Vielmehr versucht ein Masse-enthaltender Raumbereich nach dem Zweiten Hauptsatz der Thermodynamik einen Zustand höherer Entropie zu erreichen, was zu einer entropischen Kraft F = T x dS/dx (Temperatur x Entropiedifferenz längs dx) führt. Die Theorie stimmt über viele Größenordnungen mit den makroskopischen Beobachtungen von Newtons Gravitation und von Albert Einsteins Allgemeiner Relativitätstheorie überein, insbesondere der von letzterer beschriebenen Raumzeitkrümmung. Sie ist auf kleinen Längenskalen Quantenfluktuationen unterworfen, was dazu führt, dass die Gravitation in

Bereichen verschwindend kleiner Gravitationsbeschleunigung nicht mit 1 / r2 abnimmt, sondern mit 1/r (linear-invers statt quadratisch-invers). Sie ist daher eine der möglichen Erklärungen der Modifizierten Newtonschen Dynamik (MOND), und kann ohne Dunkle Materie erklären, warum die Rotationskurve von Galaxien von dem Profil abweicht, das durch die sichtbare Materie erwartet wird. Die Theorie wird unter Physikern kontrovers diskutiert und hat zu zahlreichen Forschungsideen und Experimenten angeregt, die ihre Gültigkeit testen sollen. (Wikipedia )

Zeit in der QuantenphysikAuch die Quantenphysik kennt einen Zeitpfeil. Messprozess & Dekohärenz (Quanten-Zeitpfeil):Die Quantenphysik wird zum einen durch die zeit-symmetrische Schrödinger-Gleichung bestimmt, zum anderen (nach der Kopenhagener Interpretation) durch den nicht-reversiblen Kollaps der Wellenfunktion bei einer Messung. Diese liefert immer ein eindeutiges Ergebnis, wählt genau eine von vorher vielen Möglichkeiten aus. Der Kollaps der Wellenfunktion ist jedoch keine objektive Eigenschaft der Quantenwirklichkeit sondern nichts anderes als die durch Messung bewirkte plötzliche Veränderung unseres Wissens. Nichts verbietet es grundsätzlich, den Messprozess zeitlich umzukehren, denn dieser entspricht einer zeitlich umkehrbaren Entwicklung der globalen (die Messapparatur einschließenden) Wellenfunktion. Es ist nur extrem unwahrscheinlich, dass das Quantenobjekt so wie es vor der Messung war wieder auferstehen kann, denn es ist im Zuge der Messung eine Wechselwirkung mit allen Teilchen der Messapparatur eingegangen. Diesen Prozess einer zunehmenden Verschränkung eines Teilchens mit seiner Umgebung, nennt man Dekohärenz (s. Quantenphysik, Kap. 3). Dekohärenz ist ein irreversibler Prozess analog den irreversiblen makrophysikalischen Prozessen bei denen die Entropie zunimmt. In beiden Fällen resultiert die Irreversibilität aus der Unwahrscheinlichkeit des Anfangszustandes. Der Zeitpfeil bei einer Quantenmessung ist letztendlich eine Form des thermodynamischen Zeitpfeils.

Der Zeitbegriff in der Schleifen-Quanten-Gravitation (s. Kap. 7):M. Bojawald: In den Gleichungen, die Raum- und Materie-Quanten beschreiben, kommt die Variable „Zeit“ nicht mehr vor. Dem diskreten Fortschreiten der Zeit entsprechen fortlaufend sprunghafte strukturelle Veränderungen im Netz dieser Knoten, wie die Vereinigung von Knoten oder die Entstehung neuer (Raum-) Knoten. Diese Veränderungen im Netz stellen den Zeitfluss selbst dar. Das bedeutet, dass die Bewegungen von Knoten keine Zeit „dauert“, sondern lediglich (sprunghaft Planckzeit-getaktet) kausal nacheinander geschieht. Die Abfolge von Ursachen und Wirkungen selbst ist die Zeit. Die Illusion, dass wir in einem Raumzeitkontinuum leben, ist nur unser unscharfer Blick auf das dichte Gewimmel elementarer Prozesse zwischen wechselwirkenden Raum- und Materie-Quanten. Einstein: „das universelle Vergehen der Zeit ist eine Illusion. Wir sehen nur statistische Mittelwerte. Erst dadurch entsteht Bewusstsein und Zeit.“ Jörg Resag: „Die klassische Zeit stellt sich also als emergentes Phänomen heraus, sie entsteht also durch eine Art Mittelungsprozess über die Quantenwelt.“

Carlo Rovelli: Liegt in der Zusammenführung von Thermodynamik und Quantengravitation der Schlüssel zum Verständnis der Zeit? Das wesentliche Phänomen, dass die Zukunft von der Vergangenheit unterscheidet, ist das Fließen von Wärme von warm nach kalt. Boltzmann erkannte den Grund dafür: die Wahrscheinlichkeit der Mikrozustände. Materie produziert Wärmestrahlung mit statistisch verteilten Energien. Auch Schwarze Löcher sind warm; es sind die an der Oberfläche des SL vibrierenden Raumquanten, die seine Wärme erzeugen (Hawking-Strahlung). Es gibt noch keine Gleichungen zur Beschreibung des thermischen Schwingens der Raumzeit. Die Entropieformel für SL ist vielleicht die einzige

heute weitgehend akzeptierte Formel, die die Naturkonstanten der ART, der Quantentheorie und der Thermodynamik zugleich enthält und damit diese Gebiete zusammenführt.

Gedanken und Fragen:1) Zeit ist an Materie (Ruhemasse) gekoppelt, denn für Teilchen ohne Ruhemasse, die sich zwangsläufig mit Lichtgeschwindigkeit bewegen, vergeht keine Zeit. Die Eigenzeit von Photonen ist Null. Umgekehrt haben alle Materieteilchen eine von Null verschiedene Ruhemasse und können daher niemals Lichtgeschwindigkeit erreichen. Materieteilchen erhielten ihre Ruhemasse aber erst durch die Kopplung an ein Higgs-Feld im Zuge der elektroschwachen Symmetriebrechung (etwa 10-11 Sekunden nach dem Urknall; s. Kap. 6). Gab es davor überhaupt Zeit? Es gibt physikalische Prozesse die zeitlose Energieformen (Photonen) in zeit-behaftete (z.B. Elektron-Positron-Paar) wandeln und umgekehrt. Bedeutet Zeitkopplung zwangsläufig Vergänglichkeit? Zerfallen alle Formen von Materie irgendwann zu zeitloser Strahlung?

2) Gemäß der Relativitätstheorie hängen Raum und Zeit (makroskopisch) zusammen. Beide sind relative Größen und hängen vom Bewegungszustand eines Beobachters ab, wobei die Zeit aber nicht direkt messbar ist, sondern nur die Durchläufe einer periodischen Bewegung.Absolut ist nur die zusammenhängende Raumzeit. Energie und Raumzeit wechselwirken miteinander gemäß der ART (Energie krümmt die Raumzeit – dies erzeugt Gravitation - und diese Krümmung beeinflusst die Bewegung von energetischen Teilchen). Auch ein licht-schnelles Photon folgt diesen Krümmungslinien der Raumzeit. Aus Sicht des Photons gibt es jedoch keine Zeit und daher keine Bewegung, der Raum erscheint ohne jede Ausdehnung.Was würde das für ein (endliches) Universum, das nur Photonen enthält, bedeuten? Roger Penrose: Zyklen der Zeit: Dieses Modell beschreibt ein zyklisches Universum ohne Kontraktion; das Universum entwickelt sich zu reinem Strahlenuniversum ohne Materie, die Zeit ist nicht mehr definiert, das Universum wäre zeitlos. Aus diesem Zustand entsteht ein neuer Urknall, und damit die Rückkehr der Zeit. (s. Das Universum, Teil 2)

2) Der thermodynamische Zeitpfeil beruht auf der statistisch begründeten zwangsläufigen Entwicklung (eines Systems /des Universums) zu immer wahrscheinlicheren Zuständen.Dies gilt auch für Dekohärenz-Prozesse der Quantenwelt. Der stochastische Charakter der Quantenphysik (Wellenfunktion) lässt auch die Interpretation zu, dass die Wellenfunktion, nur die Wahrscheinlichkeiten für Ort und Impuls eines Teilchens bei einer (gedachten) Vielzahl gleichartiger Versuche zum Ausdruck bringt. (siehe auch Quantenphysik, Kap. 9, Ensemble-Interpretation). Der quantenphysikalische und der thermodynamische Zeitpfeil beruhen daher wohl beide auf dem Bestreben des Naturgeschehens, sich zu einem Zustand immer höherer Wahrscheinlichkeit zu entwickeln. Ist dieses Bestreben auch die Ursache der Gravitation? Gravitation ist der Motor für die anwachsende Entropie im Universum, ist sie auch eine entropische Kraft (s. oben) ?

3) In der Schleifen-Quanten-Theorie (s. Kap. 7) manifestiert sich Zeit als sprunghafte Abfolge von Ursachen und Wirkungen in einem Netzwerk elementarer Raum- und Materie-Quanten. Diese Veränderungen im Netz sind nicht eingebettet in eine Zeit, sondern sie stellen den gequantelten Zeitfluss selbst dar. Die kosmische Uhr tickt im Planck-Sekunden-Takt. Die makrophysikalische Zeit entsteht durch eine Art von Mittelungsprozess über das dichte Gewimmel elementarer Prozesse dieser Quantenwelt. Ein Zeitpfeil entsteht möglicherweise auch dadurch, dass wegen der Ausdehnung des Universums ständig neue Raumquanten eingefügt werden müssen, und dadurch ein Rückfall in alte Konfigurationen nicht möglich ist.Aber wie lässt sich diese Sicht der Zeit mit der zusammenhängenden Raumzeit der ART in Übereinstimmung bringen?

11.Fundamentale Naturkonstanten und Feinabstimmung

Fundamentale Naturkonstanten:Als fundamentale Naturkonstanten gelten allgemein: die Lichtgeschwindigkeit c, die Elementarladung e, das Plancksche Wirkungsquantum h, die Elektronenmasse me, die Protonenmasse mp, die elektrische Feldkonstante ε0, die Newtonsche Gravitationskonstante G, die Avogadro-Konstante NA und die Boltzmann-Konstante kB. Diese Größen haben - soweit man feststellen kann - die Eigenschaft, dass sie im ganzen Universum jeweils denselben Wert besitzen. Die manchmal auch genannte magnetische Feldkonstante µ0

kann aus den Maxwell-Gleichungen abgeleitet werden. Es gilt: ε0 µ0 c2 = 1

Die Planck-Einheiten (Planck-Länge/Masse/Zeit) lassen sich mittels c, G, h bestimmen. Nimmt man noch ε0 und kB so lassen sich auch eine Planck-Ladung und Temperatur als weitere fundamentale Planck-Einheiten definieren. Diese 5 Konstanten haben nicht nur die Eigenschaft, dass sie sich nicht durch andere Konstanten irgendwie zusammensetzen lassen, sondern sie sind jeweils direkt mit einer eigenständigen physikalischen Theorie verbunden.

Die Frage, ob wir jemals die Werte der Naturkonstanten wissenschaftlich erklären oder gar theoretisch berechnen können, ist im Moment nicht abschließend zu beantworten.

Feinabstimmung der Naturkonstanten?Offensichtlich sind die Naturgesetze und die Naturkonstanten so beschaffen, dass die kosmische Evolution ein Universum mit komplexen Formen der Materie in Form der vielfältigen Elemente und Moleküle sowie Sterne und Planeten und Leben hervorbringen konnte. Das ist nicht selbstverständlich. So werden die atomaren und molekularen Prozesse wesentlich durch die Werte von 4 Naturkonstanten bestimmt; dies sind die Massen von Proton und Elektron sowie die Kopplungsstärken von starker und elektromagnetischer Kraft. Hätten diese Naturkonstanten nur geringfügig andere Werte, gäbe es keine stabilen molekularen Systeme oder keine Sterne im Universum. Man spricht in diesem Zusammenhang auch von der Feinabstimmung der Naturkonstanten. Andere Beispiele dafür sind die Asymmetrie der Entstehung von Materie und Anti-Materie beim Urknall ohne die keine Materie überlebt hätte, oder die Entstehung von Kohlenstoff (12C) als Basis für Leben durch Fusion von 3 Helium-Atomen (Drei-Alpha-Prozess) im Inneren von Sternen, welche nur durch eine erstaunliche naturgesetzliche Resonanz der Kernenergie-Niveaus der beteiligten Atomkerne zustande kommt (siehe „das Universum – Teil 1“). Ferner ist die kosmische Inflationstheorie (s. Kap.8) auch dadurch motiviert, eine extreme Feinabstimmung der anfänglichen Energiedichte des Universums vermeiden zu können (Flachheitsproblem, siehe „das Universum – Teil 2“).

Verbirgt sich hinter diesen „Feinabstimmungen“ ein noch unbekannter naturgesetzlicher Zusammenhang? Gibt es – wie manche Wissenschaftler meinen - unendlich viele Parallel-Universen und darunter dann zwangsläufig auch solche, in denen sich komplexe Formen der Materie bis hin zu beobachtendem Leben bilden können? Dann würden wir eben naturgemäß in dem Universum leben müssen, das genau die richtigen Bedingungen aufweist, damit Leben wie unseres entstehen kann (schwaches anthropisches Prinzip). Oder gibt es doch hinter allen Naturphänomenen eine innere Ziel- und Zweckgerichtetheit (teleologische Auffassung)?

Die mögliche Existenz von Parallel-Universen (Multiversen) wird zwar spekulativ-wissenschaftlich erforscht, d.h. es wird nach Erklärungen gesucht, wie diese entstehen könnten. Selbst wenn es Multiversen gibt, könnte deren Existenz vermutlich nie im Sinn von überprüfbaren Vorhersagen belegt werden. Dazu ein Zitat von Wolfgang Pauli: „ob etwas existiert, über das niemand etwas wissen kann, gehört nicht in die Physik“.

12.Philosophische Aspekte (aus dem Aufsatz „Quantenphysik“)

Die klassische Physik ist anschaulich, wir können uns die von ihr beschriebenen Prozesse vorstellen. Die klassische Physik ist außerdem realistisch und objektivierbar, denn man geht allgemein davon aus, dass die messbaren physikalischen Größen Teil der Realität sind, und jede Messung intersubjektiv überprüfbar ist und etwas über die Realität in Erfahrung bringt. Zwar stört auch in der klassischen Mechanik jede Messung unweigerlich das gemessene System, jedoch lässt sich die Störung beliebig klein machen, so dass es sinnvoll ist, idealisierend von störungsfreien Messungen auszugehen. Insbesondere geht man davon aus, dass die Messwerte auch unabhängig von unserer Beobachtung vorliegen und feststehen. Schließlich ist die klassische Physik auch deterministisch, den für jedes klassische System mit bekanntem Anfangszustand t0 lassen sich die Gesetzmäßigkeiten oder Regeln angeben, nach denen der Folgezustand des Systems zum Zeitpunkt t1 zumindest prinzipiell berechenbar ist.

In der Quantenphysik ist dies alles anders. Zunächst ist die Anschaulichkeit nicht mehr gegeben. Quanten-physikalische Phänomene wie der Welle-Teilchen-Dualismus, nicht-lokale Quanten-Verschränkungen oder die Kraftübermittlung durch virtuelle Bosonen sind anschaulich nicht vorstellbar. Ferner sind störungsfreie Messungen in der Quantenmechanik prinzipiell nicht möglich. Darüber hinaus stellt sich auch die Frage, ob die Messwerte ohne und unabhängig von unserer Beobachtung überhaupt reale Eigenschaften des Quantenobjekts darstellen, ob es überhaupt sinnvoll ist, einem unbeobachteten System Eigenschaften zuzuschreiben, oder ob nicht vielmehr die beobachteten Eigenschaften überhaupt erst durch die Beobachtung entstehen? Die Quantentheorie und diese Deutungen sind von erheblicher Relevanz für das naturwissenschaftliche Weltbild und die Philosophie.

In diesem Zusammenhang ist insbesondere die Kopenhagener Deutung der Quantentheorie (1927 von Nils Bohr und Werner Heisenberg formuliert) von Interesse, die nicht-realistisch und nicht-deterministisch in folgendem Sinn ist: Die QM ist nicht-realistisch, d.h. eine Messung liest nicht nur Eigenschaften ab, die auch ohne die Messung vorliegen. Es gibt keine verborgenen Parameter wie z.B. reale, nur unserer Kenntnis prinzipiell entzogene Teilchenbahnen. Impuls und Ort sind unterhalb gewisser Grenzen, die durch die Heisenbergsche Unschärferelation (HUR) gegeben sind, nicht definiert. Teilchenbahnen sind daher keine reale Eigenschaft von Quantenobjekten. Die QM ist nicht-deterministisch. Selbst wenn der Anfangszustand eines Quantensystems genau bekannt wäre, ließe sich keine Gesetzmäßigkeit oder Regel angeben, nach der ein Folgezustand prinzipiell genau berechenbar wäre. Vor einer Messung lassen sich nur Wahrscheinlichkeiten angeben, sind nur stochastische Vorhersagen möglich; erst durch die Messung erfolgt der Übergang vom Möglichen zum Faktischen.

Gemäß dieser Interpretation ist der Wahrscheinlichkeitscharakter quantentheoretischer Vorhersagen nicht Ausdruck der Unvollkommenheit der Theorie, sondern des prinzipiell nicht-deterministischen Charakters von Naturvorgängen. Die Wellenfunktion ist nicht eine objektive Eigenschaft der Quantenwirklichkeit, sondern eine Verkörperung dessen, was wir über die Wirklichkeit wissen. Demzufolge ist der plötzliche Kollaps der WF nichts anderes, als die durch die Messung bewirkte plötzliche Veränderung unseres Wissens. Der eigentliche Übergang vom Möglichen zum Faktischen wird mit „Zufall“ begründet. Dies impliziert nicht, dass sich die Natur akausal verhält, dass es sich also um einen objektiven Zufall handelt, ein Ereignis ohne jede Ursache. Es impliziert nur, dass wir über eine Ursache nichts wissen können.

Kausalitätsprinzip und Determinismus:

Kausalitätsprinzip nach Kant: alle Veränderungen geschehen nach dem Gesetz der Verknüpfung von Ursache und Wirkung. Im Sprachgebrauch der Physik könnte man das allgemeiner so definieren: Zwischen 2 Zuständen eines physikalischen Systems zu 2 Zeitpunkten t1 und t2 besteht eine kausale Verknüpfung, wenn es Gesetzmäßigkeiten gibt, welche die beiden Zustände so miteinander verknüpfen, dass der frühere Zustand den späteren bedingt. In der klassischen Physik und auch in der modernen geht man von der Vorstellung aus, dass alles Naturgeschehen dem Kausalitätsprinzip genügt. Dies ist allerdings eine metaphysische Aussage, die nicht impliziert, dass man diese Gesetzmäßigkeit erkennen oder gar beschreiben können muss. Determinismus bedeutet dagegen, dass eine raumzeitliche Beschreibung der Entwicklung eines Systems aus einem bekannten Anfangszustand zumindest prinzipiell möglich ist. Determinismus in diesem Sinn setzt Kausalität voraus und erfordert eine Subjekt-Objekt-Beziehung. Aus der nicht-deterministischen QM gemäß Kopenhagener Deutung folgt aber nicht, dass die Natur sich akausal verhält. Wenn in der QM vom Zufall die Rede ist, meinen die meisten Physiker nicht den objektiven Zufall (also ein Ereignis, dass keine Ursache hat), sondern dass wir über eine Ursache prinzipiell nichts wissen können.

Kausalordnung und Relativitätstheorie: Aus der speziellen Relativitätstheorie (SRT) folgt, dass sich kein Signal schneller als mit Lichtgeschwindigkeit ausbreiten kann. Dies bedeutet, dass sich 2 Ereignisse in der Raumzeit nur dann kausal beeinflussen können, wenn sie durch einen Lichtstrahl (oder ein unterlichtschnelles Signal) verbunden werden können. Diese „Signal-Lokalität “ ist notwendig dafür, dass für jeden Beobachter einer Ursache-Wirkung-Beziehung, unabhängig vom gewählten Bezugssystem, die Wirkung zeitlich nach der Ursache erfolgt. Die durch die SRT implizierte Kausalordnung auf den Ereignissen der Raumzeit ist eine partielle Ordnung. Für ein Ereignis liegt die Ursachenkette im Vergangenheitslichtkegel, die Wirkungskette im Zukunftslichtkegel des Ereignisses. Obwohl die Quantenmechanik eine nicht-lokale Theorie ist (siehe Quantenphysik, Kap. 3), und nach der Kopenhagener Deutung auch nicht-deterministisch, erfüllt sie die Forderung der Signal-Lokalität und verletzt daher diese Kausalordnung (d.h. Ursache stets vor Wirkung) nicht.

Heisenberg: "Wenn der gegenwärtige Zustand eines isolierten Systems in allen Bestimmungsstücken genau bekannt ist, so lässt sich der zukünftige Zustand des Systems daraus berechnen." Diesem Satz liegt die Hypothese zugrunde, dass es prinzipiell möglich sei, ein isoliertes System in allen wesentlichen Bestimmungsstücken zu kennen. In der neueren Quantentheorie stellt sich nun eben die genannte Hypothese als unrichtig heraus. Es ist prinzipiell nicht möglich, alle zur Berechnung der Zukunft notwendigen Bestimmungsstücke eines isolierten Systems zu ermitteln. Damit ist natürlich die (allgemeine) Fassung des Kausalgesetzes nicht als unrichtig nachgewiesen, sondern nur als inhaltsleer; sie hat keinen Gültigkeits- oder Anwendungsbereich mehr und ist deshalb auch für den Physiker nicht von Interesse.“

Der Physiker Stephen Hawking verwendet den Begriff Determinismus für alle Interpretationen der Quantenmechanik, auch für die einschlägig als indeterministisch bezeichneten Varianten. Er begründet diese Wortwahl damit, dass so der mögliche falsche Eindruck der Regellosigkeit vermieden werde. Auch unter der Annahme einer fundamentalen Zufälligkeit der Natur würden statt einer bestimmten Zukunft und Vergangenheit eben die Wahrscheinlichkeiten für verschiedene mögliche Zukünfte und Vergangenheiten durch die Naturgesetze exakt bestimmt, d.h. determiniert.