Die Urknall-Theorie

Outline

0) Einleitung

a) Zweck dieses FAQs

Ursprüngliche wurde diese Seite über die Urknall-Theorie als FAQ-("Frequently Asked Questions") Seite für das Archiv der Newsgruppe talk.origins geschrieben, welche sich mit Debatten über "biologische und physikalische Ursprünge" befasst. Primär richtet sie sich gegen die vor allem in den USA sehr aktive "Kreationismus"-Bewegung, welche die Sechs-Tage-Schöpfungsgeschichte der Bibel wörtlich nimmt und dementsprechend sowohl die Evolutionstheorie Darwins als auch die Urknall-Theorie ablehnt (als auch diverse andere wissenschaftliche Ergebnisse, die ihrem Bibelverständnis entgegenlaufen). Weitaus die meisten der FAQ-Seiten in diesem Archiv beschäftigen sich allerdings mit der Evolutionstheorie und geologischen Themen (wie dem Alter der Erde und Argumenten gegen die Sintflutgeschichte der Bibel). Der allererste Ursprung, der Ursprung des Universums selbst, wurde dagegen dort praktisch überhaupt nicht behandelt - obwohl dieses Thema oft in den Diskussionen in der Newsgruppe aufkam.

Trotz seines Titels wird auch diese FAQ-Seite dieses Thema nicht (erschöpfend) behandeln - denn die Urknall-Theorie ist, obwohl dies von vielen angenommen wird, nicht eine Theorie über den Ursprung des Universums, sondern über seine zeitliche Entwicklung (oft auch als "kosmische" oder "kosmologische Evolution" bezeichnet - was manchmal zu Verwechslungen mit der eigentlichen Evolutionstheorie führt, die sich eigentlich nur auf biologische "Ursprünge" bezieht). Bis heute hat die Wissenschaft keine Erklärung für den eigentlichen Ursprung des Universums (es gibt allerdings einige Ideen hierzu, die weiter unten kurz angesprochen werden). Andererseits ist die Urknall-Theorie unzweifelhaft eine Theorie über Ursprünge - den Ursprung der Materie, den Ursprung der Elemente, den Ursprung der Kosmischen Mikrowellen-Hintergrundstrahlung, den Ursprung der großräumigen Strukturen im Universum usw. All dies wird weiter unten ausführlich erklärt und diskutiert werden.

Hier im deutschsprachigen Raum ist der primäre Grund für diese FAQ-Seite natürlich hinfällig - die Kreationisten-Bewegung ist hier praktisch nicht existent. Auch andere religiöse Implikationen der Theorie (teilweise wird sie als "atheistische Theorie bezeichnet, nur erfunden, damit Wissenschaftler die Existenz Gottes leugnen können, andererwseits wird sie von vielen Christen als Beweis für dessen Existenz angesehen!) sind hier weit unwichtiger als in den USA. Wer dennoch an diesem Thema interessiert ist, findet dazu mehr beispielsweise auf der Webseite Big Bang Theory rules out a creator for the universe oder im in der Literaturliste zitierten Buch von book by Craig and Smith.

Aber auch hier in Deutschland gilt ein anderer Hauptgrund für die Existenz dieser Seite weiterhin: die Urknall-Theorie ist eine der bestbekannten wissenschaftlichen Theorien in der Öffentlichkeit - aber leider auch eine der am meisten missverstandenen und falsch dargestellten Theorien. Eine deutsche Übersetzung dieser FAQ-Seite schien also angebracht - und liegt hiermit vor. Das FAQ wird im folgenden erklären, was die Theorie wirklich aussagt, warum sie entwickelt wurde, und was die Belege für sie sind; aber auch einige offene Probleme werden angesprochen und diskutiert.

b) Überblick

Viele Erklärungen der Urknall-Theorie (im Folgenden mit UT abgekürzt) beginnen damit, diverse astronomische Beobachtungen darzulegen und dann zu argumentieren, dass aus diesen die Idee eines sich ausdehnenden Universums folgt. Diese Webseite geht anders vor: zunächst wird in Kapitel 1 erklärt, was die Urknall-Theorie nicht ist; einige weitverbreitete Missverständnisse werden ausgeräumt; und es wird kurz dargestellt, was sie wirklich sagt, und welche Annahmen man trifft, wenn man versucht, das Universum bzw. seine Entwicklung physikalisch zu beschreiben.

Erst anschließend, in Kapitel 2, wird näher darauf eingegangen, welche Vorhersagen die Theorie macht, und wie gut diese Vorhersagen mit den Beobachtungen übereinstimmen - mit anderen Worten, was die Belege für die Theorie sind. In Kapitel 3 werden einige der häufigsten Einwände gegen und Probleme mit der Theorie besprochen, bevor in Kapitel 4 einige alternative kosmologische Modelle kurz angesprochen werden. Kapitel 5 skizziert einige derzeitige Ideen über die früheste Zeit und den eigentlichen Ursprung des Universums. Schlußendlich enthält Kapitel 6 eine Zusammenfassung - und einen Ausblick, welche Vorschritte voraussichtlich in den nächsten Jahren in der Kosmologie zu erwarten sind.

c) Weitere Informationsquellen

Die verfügbare Literatur über die Urknall-Theorie ist kaum überschaubar - sowohl in gedruckter Form als auch im Web. Die Güte der Informationen in diesen diversen Quellen ist dabei sehr stark unterschiedlich - von hochgestochenen Lehrbüchern, die teilweise nicht mal von einigen der Kosmologen selbst verstanden werden, über "popularisierte" Darstellungen für Laien, manchmal so stark vereinfacht, dass sie fast (oder sogar tatsächlich) schlicht falsch sind, bis zu Hetzreden, gefüllt mit Missverständissen, Verdrehungen und boshaften Verleumdungen, geschrieben von Leuten, die eigentlich nichts von der Theorie verstehen. Für diese FAQ-Seite wurde versucht, einige der "besten" Quellen herauszufiltern (das heißt Quellen, die sowohl ein Verständnis der Theorie zeigen als auch möglichst leicht verständlich sind). Es wird um Verzeihung dafür gebeten, das in der riesigen verfügbaren Informationsfülle über dieses Thema wahrscheinlich die eine oder andere wertvolle Quelle übersehen wirde. Aufgrund des ursprünglichen Zwecks dieser Seite, und da die Wissenschaftssprache heutzutage nun mal Englisch ist, sind die meisten Literaturverweise und Links auf englische Quellen; auch dies bitte ich zu entschuldigen.

In der Literaturliste finden sich einige gute Bücher über die Theorie - auf verschiedenen Niveaus. Beispielsweise richten sich die Bücher von Peebles und von Kolb & Turner an Leute mit gutem mathematischen Vorwissen. Die Bücher von Coles und Harrison sind dagegen weit weniger technisch. Wer vor allem an den frühesten Entwicklungsstadien des Universums (Nukleosynthese usw,), einschließlich der zugrundeliegenden Elementarteilchen-Physik, interessiert ist, dem sei das Buch von Fritzsch sehr ans Herz gelegt. Auch das recht bekannte Buch Die ersten drei Minuten von Weinberg ist hierfür empfehlenswert. Beide sind für die allgemeine Öffentlichkeit geschrieben und setzen praktisch keine mathematischen Vorkenntnisse voraus.

All die bisher erwähnten Bücher haben ein aber ein großes Problem: sie sind (zumindest teilweise) veraltet. Die Entwicklungen und Beobachtungen der letzten Jahre, wie die beschleunigte Ausdehnung des Universums und die vom WMAP-Satelliten gelieferten Daten, sind nicht enthalten. Neuere Literatur, die diese Themen enthält, sind beispielsweise die Bücher von Peacock, Kirshner und Livio. Zu all diesen Büchern gibt es sehr lobende Buchbesprechungen; der Autor dieser Seite hat allerdings keine persönlichen Erfahrungen mit ihnen. Das erste ist ein Lehrbuch für Studenten, die anderen beiden sind auch für Laien verständlich.

Schließlich und endlich gibt es auch seit relativ kurzer Zeit ein sehr gutes deutsches Buch zur Kosmologie, das sich an die allgemeine Öffentlichkeit richtet: Kosmologie für die Westentasche, geschrieben von dem Astrophysiker Kippenhahn (Universität München).

Eine weithin bekannte (und sehr gut gemachte) Website über die Urknall-Theorie ist das "cosmology tutorial" des professionellen Kosmologen Edward L. (Ned) Wright, welches auch an mehreren Stellen als Quelle für dieses FAQ verwendet wurde. Ned Wright schrieb auch ein exzellentes FAQ über die UT, aktualisiert seine Website regelmäßig mit den neuesten Neuigkeiten in der Kosmologie, und diskutiert einige der bekanntesten alternativen kosmologischen Modelle.

Auch die NASA hat einige sehr gute Webseiten über die theoretischen Grundlagen der UT und die Beobachtungen, um sie zu testen, geschrieben für Laien. Man findet sie auf der Website des WMAP-Satelliten: Cosmology: The Study of the Universe. Andere gut geschriebene Seiten über die UT finden sich beispielsweise auf Wikipedia: die Seiten zum Universum und zum The Big Bang and the Expansion of the Universe auf der Website An Atlas of the Universe, welches einige der häufigsten Fehlvorstellungen ausräumt.

1) Was ist die Urknall-Theorie?

a) Verbreitete Fehlvorstellungen über die Theorie

In vielen populärwissenschaftlichen Quellen wird die UT (englisch: "Big Bang theory", also eigentlich "Großer Knall-Theorie") oft etwa folgendermaßen beschrieben: "Das Universum entstand aus der Explosion eines Punktes, in dem alle Materie und Energie zusammengeballt waren" - und dies ist wahrscheinlich auch die Standardvorstellung, die die meisten Leute von der Theorie haben. Manchmal hört man sogar Sätze wie "Am Anfang gab es Nichts - und das explodierte."

Hier verstecken sich gleich mehrere Fehlvorstellungen:

Der berühmte Kosmologe P.J.E. Peebles fasste dies kurz und bündig zusammen: "Die wesentliche Aussage der Urknall-Theorie ist, dass das Universum sich ausdehnt und abkühlt. Sie werden bemerken, dass ich nichts über eine 'Explosion' gesagt habe - die Urknall-Theorie beschreibt, wie unser Universum sich entwickelt, nicht, wie es begann." (Übersetzung des Autors). Dieses Zitat findet sich auf Seite 44 der Januar-Ausgabe der Zeitschrift "Scientific American" im Jahre 2001; es lohnt sich allerdings, nicht nur den zugehörigen Artikel, sondern die ganze Ausgabe zu lesen, welche sich ausschließlich mit Kosmologie befasst. Auch in der März-Ausgabe dieser Zeitschrift im Jahre 2005 fand sich ein guter Artikel zur UT, der einige der häufigsten Fehlvorstellungen korrigiert: Misconceptions about the Big Bang

Das bereits erwähnte Buch "Kosmologie fuer die Westentasche" des deutschen Astrophysikers Rudolf Kippenhahn enthält ebenfalls eine entsprechende Aussage: "Es ist auch ein weitverbreiteter Irrtum zu glauben, das Hubblesche Gesetz sage aus, der Urknall habe an einem bestimmten Punkt im Raum begonnen. Etwas so: An einem Punkt hat eine Art Explosion stattgefunden, darauf breitet sich von dort eine Explosionswolke wie bei einer irdischen Explosion in einen leeren Raum aus, und die Materie verduennt sich in ihr allmaehlich auf immer groessere Raumgebiete. Nein, das Hubblesche Gesetz besagt nur, dass die Materie frueher ueberall dicher war, und dass sie sich im Laufe der Zeit verduennt, weil alles auseinanderfliegt." und "In populaeren Darstellungen wird gerne auf fruehe Phasen des Weltalls hingewiesen, "als das Weltall so gross war wie ein Apfel" oder "wie eine Erbse". Gemeint ist damit meist die Epoche, in der nicht das ganze, sondern der nur heute beobachtbare Teil des Weltalls diese Groessen hatte." (Seite 46f; alle Hervorhebungen wie im Original)

Und auch auf der Webseite The ekpyrotic universe, welche ein neues Modell für die frühe Entwicklung des Universums vorschlägt, werden diese Fehlvorstellungen aufgezeigt; siehe der erste Abschnitt "What is the Big Bang model?". Zu dieser Webseite liegt auch eine deutsche Übersetzung vor.

Es gibt mannigfältige Gründe für diese Fehlvorstellungen; sogar die Bezeichnung "Urknall" klingt bereits nach einer Explosion, die an einem bestimmten Punkt stattfand. Aber diese Bezeichnung ist nur die eingedeutschte Version von "Big Bang" ("großer Knall") - und dieser Name wurde vom Astrophysiker Sir Fred Hoyle erfunden. Dieser war ein überzeugter Gegner der Theorie und ersann diese Bezeichnung nur, um ein Schlagwort zu haben, dem er seine eigene Theorie ("steady state", siehe Kapitel 4) gegenüberstellen konnte. Doch leider wurde dieser Name schnell auch von den Befürwortern der Theorie schnell aufgegriffen und als Schlagwort benutzt. Eine andere Quelle für die Fehlvorstellung eines explodierenden Punktes könnte der Ausdruck "Uratom" ("primeval atom") sein, der von Lemaitre, einem der Erfinder der Theorie, benutzt wurde, um den Ursprung des Universums zu beschreiben.

Aber der Hauptgrund ist wohl, dass diese bildliche Vorstellung für Laien relativ leicht verständlich ist, wohingegen die eigentlichen Aussagen der Theorie weit schwerer zu veranschaulichen sind. Und so verbreiten sich die falschen Darstellungen weiter und weiter - bis irgendwann manche Leute anfangen zu denken, dass die UT Blödsinn sei. Diese Verdrehungen der tatsächlichen Theorie können tatsächlich oft reichlich lächerlich erscheinen - solange man nicht die Wahrheit hinter ihnen kennt.

b) Was sagt die Theorie wirklich?

Es ist nicht leicht, die UT in Alltagssprache zu formulieren - wie bei vielen modernen physikalischen Theorien muss jede solche Beschreibung notwendigerweise letztlich vage und unbefriedigend bleiben. Um die Theorie wirklich zu verstehen, muss man eigentlich zunächst eine ganze Menge Mathematik lernen. Aber die Zitate von Peebles und Kippenhahn weiter oben geben zumindest eine recht gute Vorstellung davon, was die Theorie wirklich sagt - und die folgende Erklärung wird dieser Vorstellung weitgehend folgen.

Die Hauptaussage der Theorie ist in etwa: "In früheren Zeiten war das Universum sehr dicht und heiss, und seit damals hat es sich ausgedehnt und bekam dadurch dünner und kühler." Diese "Ausdehnung" bedeutet nicht etwa, dass materielle Körper auseinanderfliegen - sie bedeutet, dass der Raum selbst sich ausdehnt! Übliche Analogien sind hier die Oberfläche eines Luftballons, der aufgeblasen wird (wobei die Galaxien durch Punkte oder Münzen auf der Oberfläche dargestellt werden), oder ein Teig, der aufgeht (wobei die Galaxien durch Rosinen im Teig dargestellt werden). Wie alle Analogien versagen auch diese beiden irgendwo: sie scheinen zu sagen, dass das Universum sich in einen bereits vorhandenen Raum hinein ausdehnt. Aber die Theorie sagt nichts dergleichen - sie beschreibt nur die Ausdehnung des dreidimensionalen Raumes, mit nichts "aussenherum", in den er sich ausdehnen würde (siehe dazu auch What is the Universe expanding into?).

Viele Leute haben ein Problem mit der Aussage "der Raum selbst dehnt sich aus". Schliesslich ist "der Raum selbst" nichts wirklich Fassbares, und manche Leute meinen gar, eigentlich wäre er doch "nichts". Deshalb ist eine alternative Formulierung oft besser: "Der Abstand zwischen je zwei beliebig gewählten Punkten vergrößert sich mit der Zeit". Aber auch diese Formulierung hat ihre Tücken und ist eigentlich nicht wirklich immer richtig; mehr darüber weiter unten im Abschnitt zur Rotverschiebung. Um wirklich zu verstehen, was hier gemeint ist, muss man eine Vorstellung davon haben, was die Allgemeine Relativitätstheorie (im folgenden "ART" abgekürzt) aussagt - Einsteins Theorie der Gravitation, aussagt. Denn auf diese Theorie gründet sich die UT letztlich.

Doch wiederum ist dies eine Theorie, die nicht leicht in der Alltagssprache beschreibbar ist. Misner, Thorne und Wheeler, drei Wissenschaftler, die für ihre Arbeiten zur ART berühmt sind, fassten sie einst in dieser kurzen Aussage zusammen (siehe ihr Buch über Gravitation): "Der Raum sagt der Materie, wie sie sich zu bewegen hat; die Materie sagt dem Raum, wie er sich zu krümmen hat." Aber das ist natürlich notwendigerweise eine allzu stark vereinfachte Beschreibung der ART. Einige wesentliche fehlende Bestandteile sind hier beispielsweise, dass der Raum nicht nur der Materie "sagt, wie sie sich zu bewegen hat", sondern auch der (elektromagnetischen) Strahlung (beispielsweise wird Licht von schweren Körpern, wie unserer Sonne, abgelenkt); dass nicht nur die Materie dem Raum "sagt, wie er sich zu krümmen hat", sondern auch Energie; dass nicht nur der Raum "gekrümmt" wird, sondern im Allgemeinen auch die Zeit ("Raumzeit"); und nicht nur Krümmung kann auftreten, sondern auch Streckung, Dehnung usw. Vielleicht beschreibt der folgende kurze Satz die ART schon besser: "Energie bestimmt die Geometrie und Änderungen in der Geometrie des Universums, und umgedreht bestimmt die Geometrie die Bewegung der Energie."

Wie kommt man denn aber nun von der ART zur UT? Eine der wichtigsten Annahmen in der Kosmologie, die hier benutzt wird, ist das sogenannte kosmologische Prinzip. Es besagt, dass das Universum homogen und isotrop ist, das heißt, dass es überall und in jede Richtung gleich aussieht. Offensichtlich kann dies nur für sehr großräumige Strukturen gelten - auf kleineren Längenskalen (Planeten, Galaxien, Galaxienhaufen usw.) sehen verschiedene Orte und verschiedene Richtungen im Universum ziemlich unterschiedlich aus! Aber wir haben gute Belege, dass das kosmologische Prinzip auf Skalen von mehreren hundert Millionen Lichtjahren in der Tat gilt - zumindest in unserer "Nachbarschaft" (mehr dazu unten im Abschnitt 2a). Andererseits können wir einen großen Teil des Universums nicht sehen (weil das Licht von dort uns noch nicht erreicht hat, und uns vielleicht nie wird erreichen können), und so kann das kosmologische Prinzip nie wirklich bewiesen werden - und muss eine Annahme bleiben.

Unter dieser Annahme der Homogenität und Isotropie kann man mathematisch zeigen, dass die möglichen Geometrien ("Formen") des Universums sehr beschränkt sind (siehe z. B. diese Vorlesungsnotizen über Kosmologie und ART und Die Friedmann-Robertson-Walker-Metrik). Aus der Annahme der Homogenität folgt, dass das Universum überall dieselbe "Krümmung" haben muss - und deshalb hat man nur noch drei Möglichkeiten zu unterscheiden: positive oder negative Krümmung, oder gar keine. Zwei-dimensionale Modelle sind oft sehr hilfreich, um sich dies vorzustellen: Im zwei-dimensionalen ist die Oberfläche einer Kugel (nicht die ganze Kugel!) ein Raum mit positiver Krümmung, eine Ebene ein Raum ohne Krümmung, und eine Sattel-artige Form (die in eine Richtung "aufwärts" und in die andere Richtung, senkrecht dazu, "abwärts" geht) ist ein Raum mit negativer Krümmung. Das Bild unten (freundlicherweise zur Verfügung gestellt vom NASA/WMAP-Team) zeigt eine Darstellung dieser drei Möglichkeiten.

Possible geometries of the 
universe

Außerdem gibt es noch andere, kompliziertere Möglichkeiten für die Geometrie des Raumes, beispielsweise die eines Torus' (Rings), aber diese werden hier nicht weiter erörtert. Für Interessierte: der einschlägige Begriff ist hier Die Topology des Universums.)

Beachten Sie, dass aus dem kosmologischen Prinzip auch automatisch folgt, dass das Universum weder einen Rand noch einen Mittelpunkt hat - denn hätte es dies, so wäre die Annahme der Homogenität und Isotropie verletzt! (da das Universum am Rand offensichtlich deutlich anders aussehen würde als in der Nähe des Mittelpunktes) Man hat sich also sowohl die Ebene als auch den Sattel als bis ins Unendliche erstreckt vorzustellen; die Kugeloberfläche dagegen hat automatisch keinen Rand und keinen Mittelpunkt, obwohl sie nur eine endliche Größe hat. Es folgt, dass bei Gültigkeit des kosmologischen Prinzips das Universum unendlich groß sein muss, falls es negative oder gar keine Krümmung hat. Hat es dagegen positive Krümmung, so hat es eine endlich Größe. Kaum zu glauben, aber obwohl seit Jahrzehnten daran geforscht wird, wissen wir immer noch nicht, welche Krümmung unser Universum denn nun hat - und folglich wissen wir auch immer noch nicht, ob es eine endliche oder eine unendliche Größe hat.

c) Der Inhalt des Universums

Wie oben bereits erwähnt, bestimmt laut der ART der Materie- beziehungsweise Energiegehalt des Universums die Geometrie des Raumes, und Änderungen derselben. Um irgendwelche Vorhersagen über die Entwicklung des Universums treffen zu können, muss man also zunächst wissen, welche Materie und Energie es enthält. Glücklicherweise muss man dafür nicht allzuviele Details darüber kennen: das kosmologische Prinzip hilfts uns auch hier. Die Annahme der Homogenität und Isotropie für die Inhalte des Universums reduziert die notwendigen Kenntnisse auf die (Energie-)Dichte und den Druck für jede der verschiedenen Komponenten.

Es ist sogar noch ein weniger einfacher: für alle (bekannten) möglichen Komponenten gibt es sogenannte "Zustandsgleichungen", welche die Energiedichte und den Druck miteinander in Zusammenhang setzt. Für jede mögliche Komponente muss man also nur die Energiedichte wissen; der Druck ergibt sich dann automatisch, indem man in die jeweilige Zustandsgleichung einsetzt.

Im Wesentlichen gibt es drei verschiedene Materie- bzw. Energieformen, die man zu betrachten hat:

d) Zusammenfassung: Die Parameter der Urknall-Theorie

Wie jede physikalische Theorie benötigt auch die UT Parameter. Fasst man das bisher gesagte zusammen, so sind dies im Wesentlichen:

Das sieht nach einer ziemlich langen Liste von Parametern aus - und man könnte argumentieren, dass die Übereinstimmung zwischen Theorie und Beobachtungsdaten einfach an der großen Zahl von freien Parametern liegt, deren Werte man ziemlich beliebig wählen könnte. Aber wie bereits angedeutet sind nicht alle dieser Parameter wirklich unabhängig voneinander (beispielsweise beeinflussen sich die Werte für den Hubble-Parameter, die Energiedichten und den Dezelerations-Parameter gegenseitig). Außerdem gibt es eine Vielzahl möglicher Beobachtungen, die man in der Kosmologie durchführen kann - Beobachtungen mit extrem unterschiedlichen Methoden, Empfindlichkeiten und systematischen Fehlern. Wenn eine große Anzahl solche unterschiedlicher Beobachtungen konsistent alle dieselben Werte für die Parameter ergeben (innerhalb der Fehlergrenzen), dann kann man sich sehr sicher sein, dass die zugrundeliegende Theorie wohl in der Tat wahr ist. Und genau dies passierte für die UT in den letzten Jahrzehnten, und insbesondere in den letzten paar Jahren. Inzwischen haben die Kosmologen ein "Standardmodell" für das Universum entwickelt.

Dieses Modell des Universums, das derzeit in der Kosmologie benutzt wird, wird allgemein das "Lambda CDM"-Modell genannt (Lambda ist ein griechischer Buchstabe, der in etwa wie ein auf dem Kopf stehendes V aussieht). Das Lambda steht hierbei für die Kosmologische Konstante, während "CDM" für "Cold Dark Matter", also kalte Dunkle Materie steht. Der Name des Modells enthält also die beiden Komponenten, die unseres Wissens in unserem Universum dominieren: Dunkle Energie und Dunkle Materie. Die relativen Häufigkeiten dieser beiden und der dritten wichtigen Komponente ("normale" Materie) sind hier in einem Tortendiagramm dargestellt (freundlicherweise zur Verfügung gestellt vom NASA/WMAP Team):

Contents of the universe

Dieses Diagramm wurde aus den Ergebnissen des WMAP-Satelliten gewonnen, über den weiter unten noch mehr zu hören sein wird.

2) Belege für die Theorie

Dieses Kapitel untersucht zunächst, ob die grundlegende Annahme der UT (das kosmologische Prinzip) gerechtfertigt ist und beschäftigt sich danach mit diversen Belegen für die Ausdehnung des Universums und Beobachtungsdaten, welche die Parameter der Theorie festlegen. Zum Schluss werden Dunkle Materie und Dunkle Energie in jeweils einem eigenen Abschnitt nochmals im Detail behandelt, da dies die beiden meistdiskutierten Bestandteile der Theorie sind.

a) Homogenität auf großen Skalen

Offensichtlich ist das Universum auf "kleinen" Skalen (wie Planeten, Sonnensysteme, Galaxien oder sogar Galaxienhaufen) nicht homogen. Das sieht nach einem großen Problem für das kosmologische Prinzip aus, auf dem ja die ganze UT beruht!

Aber wenn man das Universum auf wirklich großen Skalen untersucht, das heißt Bereiche mit Größen von mehreren hunderten von Millionen Lichtjahren betrachtet, so stellt sich heraus, dass es in der Tat doch ziemlich homogen ist. Siehe dazu beispielsweise das Bild unten (freundlicherweise zur Verfügung gestellt von Ned Wright), welches aus Daten des sogenannten Las Campanas Redshift Survey erstellt wurde, bei dem die Rotverschiebungen von mehr als 20,000 Galaxien gemessen wurden. Jeder Punkt stellt in diesem Bild eine Galaxis dar. Beachten Sie, dass auf "kleineren" Skalen (bis zu einigen 100 Millionen Lichtjahren) immer noch eine gewisse Struktur sichtbar ist ("Große Mauern" und "Große Leeren"), aber auf größeren Skalen die Verteilung ziemlich gleichmäßig aussieht: Es gibt keine "Supermauern" oder "Superleeren".

Las Campanas Redshift Survey

Neben dieser homogenen Galaxienverteilung auf sehr großen Skalen gibt es noch einen anderen Beleg für die (großräumige) Homogenität des Universums: die Kosmische Mikrowellen-Hintergrundstrahlung (siehe unten im Abschnitt 2d). Das Grundpostulat der UT scheint also in der Tat gerechtfertigt zu sein. Also schauen wir uns nun im Folgenden an, welche Vorhersagen die Theorie macht, und ob die Beobachtungen mit diesen Vorhersagen übereinstimmen.

b) Rotverschiebung

Eine sehr wichtige Vorhersage der UT ist, dass nicht nur Abstände zwischen Körpern mit der Zeit anwachsen sollten - sondern auch Wellenlängen von (elektromagnetischer) Strahlung, einschließlich Licht! Da (sichtbares) Licht mit einer langen Wellenlänge rot ist, bedeutet dies, dass alles sichtbare Licht mit der Zeit immer röter wird - und deswegen nennt man diesen Effekt die (kosmologische) Rotverschiebung. Laut der UT sollte diese Rotverschiebung proportional zum Abstand sein, den die Lichtquelle zu uns, dem Beobachter, hat. Beachten Sie aber, dass man hier sehr vorsichtig damit sein muss, was man eigentlich mit "Abstand" meint! Dies wird beispielsweise im Abschnitt Many Distances in Ned Wright's Kosmologie-Tutorial näher ausgeführt.

Eine weitere Quelle für Verwirrung ist oft, dass der Doppler-Effekt (vor allem für den Schall bekannt, aber auch beim Licht auftretend!) ganz ähnliche Auswirkungen hat: Wenn sich die Lichtquelle vom Beobachter wegbewegt, ist die Wellenlänge des vom Beobachter gesehenen Lichts länger als die Wellenlänge des von der Quelle ausgesandten Lichts (in ihrem Bezugssystem gemessen). Da sich durch die Ausdehnung des Universums alle Galaxien von uns weg zu bewegen scheinen (eine bessere Sichtweise ist hier, dass sich der Abstand zwischen ihnen und uns vergrößert, weil sich der Raum selbst ausdehnt), könnte man die kosmologische Rotverschiebung also auch so interpretieren, dass sie einfach durch den Doppler-Effekt entsteht. Aber dies ist irreführend - und ergibt (zumindest für hohe Rotverschiebungen) auch in der Tat falsche Ergebnisse (falls die Analyse nicht sehr sorgfältig durchgeführt wird - siehe Ned Wrights Seite zur Doppler-Verschiebung).

Es ergibt viel mehr Sinn, für die Rotverschiebung einfach die Ausdehnung des Universums verantwortlich zu machen: jetzt, wo das Licht beobachtet wird, ist das Universum "größer" als zu der Zeit, als es ausgesandt wurde - und die Wellenlänge des Lichts ist einfach mitgewachsen. Dies kann man auch in Lehrbüchern zur Kosmologie sehen: die Formel, um die Rotverschiebung eines Objekts zu berechnen, ist

(Wellenlänge des beobachteten Lichts)/(Wellenlänge des ausgesandten Lichts) = (a, wenn das Licht beobachtet wird)/(a, wenn das Licht ausgesandt wird),
wobei a hier für den Skalenfaktor steht (siehe 1d). In dieser Formel tauchen in der Tat keine Geschwindigkeiten auf, woraus man sieht, dass die kosmologische Rotverschiebung im Allgemeinen nicht durch den Doppler-Effekt erklärt werden sollte (welcher ja von der Geschwindigkeit zwischen Quelle und Beobachter abhängen würde). Eine Webseite, auf der dies ausführlicher erklärt wird, ist The Cosmological Redshift reconsidered.

In den zwanziger Jahren nahm man allgemein an, dass das Universum statisch ist (sich nicht verändert) und schon immer existiert hat. Auch Einstein nahm dies an - und erfand deshalb die Kosmologische Konstante, um das Universum statisch zu halten, als seine Anwendung der ART auf das Universum als Ganzes zeigte, dass dieses sich eigentlich entweder zusammenziehen oder ausdehnen sollte (siehe auch 1c). Aber nur wenige Jahre später, im Jahre 1929, machte E. P. Hubble eine überraschende Entdeckung: Er untersuchte das Licht, das von einigen weiter entfernten Galaxien ausgesandt wurde, und stellte fest, dass es eine Rotverschiebung aufwies. Außerdem fand er heraus, dass diese Rotverschiebung proportional zum Abstand war - eine Beziehung, die heutzutage als Hubble-Gesetz bekannt ist. Hubble interpretierte diese Rotverschiebung als Doppler-Verschiebung (wie es auch heutzutage noch in den meisten populärwissenschaftlichen Quellen getan wird - was strenggenommen nicht falsch, aber sehr irreführend ist; siehe oben): je weiter entfernt sich eine Galaxis befindet, desto schneller entfernt sie sich von uns. Offensichtlich ist das Universum also nicht statisch, sondern dehnt sich aus! Dies war die Geburtsstunde der UT.

Schreibt man die Rotverschiebung dem Doppler-Effekt zu, so folgt aus der Proportionalität zwischen Rotverschiebung und Abstand eine Proportionalität zwischen der Geschwindigkeit, mit der sich eine Galaxis anscheinend von uns wegbewegt, und dem Abstand (vorausgesetzt, diese Geschwindigkeit ist klein gegen die Lichtgeschwindigkeit). Die in dieser Beziehung auftauchende Proportionalitätskonstante heißt die Hubble-Konstante. Diese wurde im Abschnitt 1d bereits erwähnt; dort wurde gesagt, dass sie der heutige Wert des sogenannten Hubble-Parameters ist, welcher die (relative) Änderung der "Größe" des Universums misst. Obwohl dies auf den ersten Blick nicht offensichtlich ist, kann man mathematisch leicht zeigen, dass diese beiden Definitionen der Hubble-Konstante äquivalent sind. Hier wird aber nun klar, warum man von der Hubble-Konstanten spricht: das Verhältnis zwischen der (scheinbaren) Geschwindigkeit einer Galaxis und ihrer Entfernung zu uns ist für alle Galaxien gleich. Es scheint auch, dass man diesen Parameter der UT leicht messen kann: man muss "einfach" sowohl die Entfernung und die (scheinbaren) Geschwindigkeiten bzw. Rotverschiebungen von möglichst vielen Galaxien messen und daraus dieses Verhältnis berechnen, das ja für alle diese Galaxien denselben Wert haben sollte.

Leider ist das nicht so einfach, wie es klingt. Erstens ist es nicht gerade unkompliziert, die Entfernungen von Galaxien zu messen - man muss eine Vielzahl von verschiedenen, ineinandergreifenden Methoden verwenden, und die meisten davon hängen zumindest ein wenig von einigen unsicheren Annahmen und unbekannten Parametern ab. Dies wird beispielsweise im FAQ über das Messen von astronomischen Entfernungen näher ausgeführt. Zweitens bewegen sich Galaxien nicht nur aufgrund der kosmologischen Ausdehnun von uns weg - sie haben außerdem auch noch von sich aus einige zusätzliche Geschwindigkeitskomponenten ("Eigengeschwindigkeit", im Englischen "peculiar velocity")! Dies liegt letztlich daran, dass die fundamentale Annahme der UT, das kosmologische Prinzip, auf "kleinen" Skalen eben nicht stimmt: das Universum ist nicht völlig homogen, sondern es gibt sehr viele lokale Inhomogenitäten, das heißt Stellen, an denen die Dichte um sehr viel größer (oder kleiner) ist als im Mittel. Daraus folgen lokale Anziehungskräfte zwischen Galaxien und Galaxienhaufen, die einen viel größeren Effekt als die allgemeine Auseinanderbewegung durch die kosmische Ausdehnung haben können.

Ein (wörtlich) naheliegendes Beispiel hier ist die Andromeda-Galaxis, welche "nur" etwa zwei Millionen Lichtjahre von uns, das heißt der Milchstraße, entfernt ist. Sie entfernt sich nicht von uns, wie von der UT vorhergesagt, sondern bewegt sich statt dessen auf uns zu - und zeigt dementsprechend eine Blau- statt eine Rotverschiebung. Ein Abstand von zwei Millionen Lichtjahren ist immer noch klein genug, dass die Schwereanziehung zwischen diesen beiden "lokalen Inhomogenitäten" (den zwei Galaxien) die kosmische Ausdehnung überwiegen kann. Nur für noch größere Abstände (größenordnungsmäßig 30 Millionen Lichtjahre) ist die (scheinbare) Geschwindigkeit aufgrund der kosmischen Ausdehnung größer als die lokalen Eigengeschwindigkeiten. Um also die Hubble-Konstante zu bestimmen, muss man sehr weit entfernte Galaxien beobachten (was offensichtlich schwieriger ist, als nahe Galaxien zu untersuchen) - und selbst dort muss man den statistischen Mittelwert nehmen, um den Einfluss der Eigengeschwindigkeiten loszuwerden.

Diese beiden Schwierigkeiten (Messen der Abstände und der Störeinfluss der Eigengeschwindigkeiten) erklären, warum die Astronomen mehrere Jahrzehnte benötigt haben, um sich auf einen Wert für die Hubble-Konstante zu einigen. Der allgemein akzeptierte Wert liegt heute bei etwa 22 Kilometer pro Sekunde und Millionen Lichtjahre, mit einer Unsicherheit von etwa fünf Prozent (würde die Ausdehnungsgeschwindigkeit gleich bleiben, so würde dies bedeuten, dass sich das Universum pro Milliarde Jahre etwa um sieben Prozent vergrößert). Trotz der Schwierigkeiten, sich auf einen genauen Wert für die Hubble-Konstante zu einigen, zeigen die Daten zumindest das Hubble-Gesetz selbst (die Proportionalität) eindeutig; siehe das Diagramm unten, welches aus Daten von Riess (1996) zusammengestellt wurde (freundlicherweise zur Verfügung gestellt von Ned Wright).

Hubble diagram

Die Standard-Urknall-Theorie, welche mehrere Jahrzehnte lang benutzt wurde, nahm an, dass die Kosmologische Konstante gleich null ist (also keine Dunkle Energie existiert), und dass die Ausdehnung des Universums von der Materie (einschließlich Dunkler Materie) bestimmt wird. Die Gleichungen sagten dann voraus, dass die Ausdehnungsgeschwindigkeit mit der Zeit abnehmen sollte - eine kosmische Verzögerung. Aber dann, im Jahre 1998, als die Astronomen endlich in der Lage waren, sehr weit entfernte Supernovae näher zu studieren, wurde entdeckt, dass dies nicht stimmt (die Supernovae sind lichtschwächer, als man aufgrund der verzögerten Ausdehnung erwartet hätte)! Statt dessen zeigten die Messungen, dass die Ausdehnungsgeschwindigkeit des Universums noch vor einigen Milliarden Jahren langsamer war als heutzutage (die erste Ableitung des Skalenfaktors war kleiner - der Hubble-Parameter, der ja die relative Änderung der Größe misst, war dagegen größer als heutzutage) - mit anderen Worte, die Ausdehnung des Universums beschleunigt sich, statt langsamer zu werden (siehe Riess 1998; neuere Messungen: z. B. Wang 2003, Tonry 2003).

Solch eine beschleunigte Ausdehnung kann erklärt werden, wenn es im Universum irgend etwas mit negativem Druck gibt - wie beispielsweise Dunkle Energie (siehe die Abschnitte (compare sections 1c und 2n). Benutzt man das einfachste Modell für Dunkle Energie, eine Kosmologische Konstante, dann sagen die Gleichungen voraus, dass zu einer noch früheren Zeit der Einfluss der Materie größer gewesen sein sollte als der der Dunklen Energie. Es folgt, dass sich zu diesen früheren Zeiten die Ausdehnung tatsächlich verlangsamt haben musste, und die beschleunigte Ausdehnung erst einige Milliarden Jahre nach dem Urknall begann (ein sogenannter "kosmischer Ruck", Englisch "cosmic jerk"). Daraus folgt, dass Supernovae, die noch weiter entfernt sind als jene, aus denen das Ergebnis der beschleunigten Ausdehnung erhalten wurde, heller sein sollten, als die beschleunigte Ausdehnung erwarten lässt. Neuere Messungen zeigten, dass dies in der Tat erfüllt ist - noch vor etwa acht Milliarden Jahren (bei einer Rotverschiebung von etwa 0,5) wurde die Ausdehnung des Universums noch gebremst (Riess 2004).

Beachten Sie, dass man die "lichtschwächeren" Supernovae (die zu der Schlussfolgerung einer beschleunigten Ausdehnung führten) auch anders hätte erklären können, beispielsweise damit, dass das Licht auf dem Weg zu uns von dichten Gas- und Staubwolken teilweise geschluckt wurde (was allerdings im Allgemeinen für verschiedene Farben verschieden stark geschieht und damit nachweisbar sein sollte), oder dass die fernen explodierenden Sterne einen anderen Aufbau (beispielsweise eine andere chemische Zusammensetzung) hatten als die nahen (auch dies sollte allerdings durch genaue Analyse des Lichts nachweisbar sein). Die beschleunigte Ausdehnung wurde dementsprechend nicht gleich von allen Astronomen widerspruchslos akzeptiert. Aber für die neuen Ergebnisse, wonach noch weiter entfernte Supernovae wiederum heller sind als erwartet, gibt es keine solche naheliegende alternative Erklärung - wohingegen dieser Befund von der UT mit einer Kosmologischen Konstante direkt vorhergesagt wurde! Also kann man diese Beobachtungsergebnisse als einen starken Beleg für die Richtigkeit der Theorie werten.

c) Häufigkeiten der leichten Elemente

Laut der UT war das Universum zu seinen frühesten Zeiten sehr heiß und dicht. Bei dieser sehr hohen Dichte und Temperatur konnten weder Atome noch Atomkerne existieren - Protonen und Neutronen waren nicht aneinander gebunden, sondern bewegten sich frei umher. Als das Universum allmählich abkühlte, begannen sich aus diesen Protonen und Neutronen dann Atomkerne zu bilden. Dies wird als die primordiale Nukleosynthese bezeichnet; sie fand etwa in den ersten drei Minuten des Universums statt (daher stammt auch der Titel von Weinbergs bekanntem Buch "Die ersten drei Minuten"). Nach diesen drei Minuten hatte sich das Universum so weit abgekühlt und hatte bereits eine so geringe Dichte, dass weitere Kernreaktionen nicht mehr statt finden konnten.

In der kurzen für Kernreaktionen zur Verfügung stehenden Zeit konnten nur relativ wenige, leichte Atomkerne entstehen, neben Wasserstoff (für dessen Entstehung keine Kernreaktionen nötig waren, da dessen Atomkern nur aus einem Proton besteht) vor allem Helium-Kerne (He-3 und He-4), aber auch Spuren von Deuterium und Lithium. Auf Ned Wrights Seite Big Bang Nucleosynthesis findet man eine ausführliche Diskussion dieses Themas, einschließlich der relevanten Reaktionen, Diagramme, Daten und Literaturverweisen.

Schwerere Atomkerne entstanden und entstehen immer noch in Sternen: während ihres normalen Lebens werden Elemente von Helium bis zu Eisen in den Kernen der Sterne geformt, noch schwerere Elemente durch die gewaltigen Supernova-Explosionen, welche das Leben der schwereren Sterne beenden. Weitere Informationen hierzu gibt es auf den Wikipedia-Seiten zur Nukleosynthese, und weiter unten im Abschnitt 2g.

Die UT kann quantitative Vorhersagen darüber machen, in welchen Häufigkeiten die Elemente in der primordialen Nukleosynthese produziert wurden. Dies kann man dann mit den im Universum beobachteten Häufigkeiten vergleichen, um die Theorie zu überprüfen. Aber hier taucht gleich ein Problem auf: wie unterscheidet man die Elemente, die während der primordialen Nukleosynthese erzeugt wurden, von denen, die erst später in Sternen entstanden?

Zwei naheliegende Möglichkeiten, diese Unterscheidung zu treffen, sind: There are at least two possibilities to make this distinction:

Das Diagramm unten zeigt ein Ergebnis einer solchen Extrapolation. Aufgetragen ist hier die Helium-Häufigkeit gegen die Sauerstoff-Häufigkeit. Laut der UT-Theorie sollten Sterne, die praktisch keinen Sauerstoff enthalten, immer noch etwa 25% Helium enthalten (die genaue Zahl hängt von einigen Parametern ab, siehe weiter unten): Sauerstoff wird nur in Sternen produziert, Helium dagegen bereits während der primordialen Nukleosynthese - und muss deshalb bereits in den allerersten Sternen vorhanden sein. Diese Vorhersage wird, wie man sieht, durch die Beobachtungen sehr schön bestätigt (Diagramm freundlicherweise zur Verfügung gestellt von Ned Wright):
Abundance of helium vs. oxygen
Zum Vergleich ist hier auch die Vorhersage der "Steady State"-Theory eingezeichnet (siehe Abschnitt 4a). Das Diagramm beruht auf Daten aus Turck-Chieze 2004; weitere Details finden sich beispielsweise in Olive 1995, Izotov 1997 oder Mathews (2005) (neuere Rechnungen und Verweise auf aktuelle Beobachtungen). In den früheren Studien gab es einige Probleme mit Galaxien, die scheinbar nur sehr geringe Helium-Häufigkeiten hatten (vor allem I Zw 18); diese Probleme wurden inzwischen näher untersucht und gelöst (siehe beispielsweise Luridiana (2003)).

Wie bereits oben erwähnt, hängt die Häufigkeit der in der primordialen Nukleosynthese erzeugten Elemente von mehreren Parametern der UT ab. Wichtig sind hier vor allem der Hubble-Parameter (da die Ausdehnungsgeschwindigkeit festlegt, wie schnell das Universum abkühlte, und damit die Zeit, die für die Nukleosynthese zur Verfügung stand) und die Dichte der baryonischen Materie (da die Zahl der Reaktionen, die statt finden konnten, offensichtlich davon abhing, wie nahe die Reaktionspartner aneinander waren). Glücklicherweise kann die Abhängigkeit von beiden Parametern als eine Abhängigkeit von einem einzigen, kombinierten Parameter dargestellt werden, der im Allgemeinen mit Omega_B h^2 bezeichnet wird; diesen Parameter findet man üblicherweise auf der x-Achse von Diagrammen, in denen die Vorhersagen über Elementhäufigkeiten dargestellt sind - wie das hier zu sehende Diagramm (freundlicherweise zur Verfügung gestellt von Ned Wright):

Abundance of light elements

Man hat nun zwei Möglichkeiten, die UT zu testen: einerseits kann man aus der Beobachtung verschiedener Elementhäufigkeiten jeweils Omega_B h^2 berechnen, wobei sich jedesmal derselbe Wert ergeben sollte. Andererseits kann man den Wert dieses Parameters aus anderen Messungen (beispielsweise den WMAP-Daten, siehe Abschnitt 2d) gewinnen, damit dann die Elementhäufigkeiten vorhersagen und mit den Beobachtungen vergleichen. Beide Vorgehensweisen wurden in der Vergangenheit benutzt; bevor die genauen Ergebnisse von WMAP für die Baryonendichte verfügbar waren, allerdings meist eher die erstere. Eine ausführliche Zusammenfassung über den Wissensstand im Jahre 1997 findet man im Artikel Big Bang Nucleosynthesis Enters the Precision Era.

d) Existenz der Kosmischen Mikrowellen-Hintergrundstrahlung

Wie schon am Anfang von Abschnitt 2c oben erwähnt, gab es eine Zeit, in der es noch keine Atome im Universum gab - sondern nur sich frei umherbewegende Atomkerne und Elektronen (die Zeit direkt nach der primordialen Nukleosynthese). Das Universum enthielt also zu dieser Zeit nur ein sehr dichtes, heißes Plasma. Licht kann sich aber in einem dichten, heißen Plasma nicht frei bewegen - die Photonen werden ständig an den geladenen Teilchen gestreut und können sich nicht längere Zeit am Stück geradeaus bewegen. Das Plasma war also undurchsichtig, und deshalb nennt man diese Zeitspanne manchmal die "opake Ära" des Universums.

Schließlich (nach knapp 400 000 Jahren) kühlte das Universum aber weit genug ab, dass sich aus den Atomkernen und den Elektronen Atome formen konnten. Atome sind elektrisch neutral - also wurden die Photonen, nachdem sich aus dem Plasma genügend Atome geformt hatten, weit weniger gestreut und konnten sich endlich frei geradeaus bewegen: das Universum wurde durchsichtig. Dieses Ereignis wird in der Kosmologie als Entkopplung bezeichnet.

Zusätzlich zu den Photonen, die zu diesem Zeitpunkt bereits vorhanden waren, entstanden durch die Bildung der Atome weitere Photonen. Die Strahlung aus dieser Zeit, die sich nun geradlinig weiter ausbreiten konnte, sollte heutzutage immer noch sichtbar sein. Aber da dies zu einem Zeitpunkt geschah, als das Universum noch sehr jung war, und sich das Universum seitdem sehr stark ausgedehnt hat, muss auch die Wellenlänge dieser Strahlung inzwischen sehr stark zugenommen haben (vergleiche Abschnitt 2b).

Die UT macht zwei sehr wichtige qualitative Vorhersagen für die Natur dieser Strahlung: Sie sollte

Gamow und seine Mitarbeiten Alpher und Herman waren (im Jahre 1948) die Ersten, die die Existenz dieser Strahlung vorhersagten - und sie versuchten auch gleich, ihre heutige Temperatur auszurechnen. Sie erhielten das richtige Ergebnis, dass diese Strahlung, welche ursprünglich im Wesentlichen sichtbares Licht war, heutzutage Mikrowellen-Strahlung sein sollte - aber der genaue Wert, den sie für die Temperatur herausbekamen, stimmte nur ungefähr mit dem tatsächlichen Wert überein (siehe unten). Da diese Mikrowellen-Strahlung von überall her kommt, aus dem "Hintergrund" der üblichen Lichtquellen wie Sterne und Galaxien, wird sie heutzutage die Kosmische Mikrowellen-Hintergrundstrahlung (KMHS) genannt (im Englischen: "Cosmic Microwave Background Radiation", CMBR).

Gamow, Alpher und Herman sagten ursprünglich vorher, dass die Temperatur der KMHS irgendwo zwischen 1 und 5 K(elvin) liegen sollte, unter Verwendung verschiedener Modell für das Universum (siehe Alpher 1949; in einem späteren Buch gab Gamow sogar einen Wert von 50 K an). Heutzutage wissen wir dagegen aus genauen Messungen (Mather 1999), dass sie bei etwa 2.725 K liegt. Zu dieser großen Unsicherheit in den Vorhersagen kam es, da die relevanten kosmologischen Parameter (beispielsweise ist das Alter des Universums in dieser Rechnung wesentlich) zu jener Zeit noch nicht sehr gut bekannt waren; beispielsweise war der von Hubble zunächst gemessene Wert für die Hubble-Konstante (siehe Abschnitt 2b etwa sieben Mal so groß wie der heute akzeptierte tatsächliche Wert! Weitere Informationen über die frühe Geschichte der Erforschung der KMHS findet man auf Ned Wrights Seite Cosmic Microwave Background.

Nach diesen theoretischen Vorhersagen gab es damals verschiedene Versuche, die "Temperatur des Raumes" zu messen - aber die wahre Entdeckung der KMHS fand erst 1965 statt, als Penzias and Wilson eigentlich mehr zufällig diese Strahlung fanden. Eigentlich versuchten sie nur, die Rauschquellen im Signal ihrer neu entwickelten Horn-Antenne loszuwerden, und stellten fest, dass eine der Rauschquellen Tag und Nacht, für jede Ausrichtung der Antenne, immer gleich groß war. Die Geschichte ihrer Entdeckung, für die sie 1978 den Nobelpreis erhielten, wird auf der Webseite Discovery of the Cosmic Microwave Background Radiation ausführlicher erzählt.

Seit damals hat die Genauigkeit der Messungen stark zugenommen, teilweise deswegen, weil heutzutage meist Satelliten oder Ballon-Experiment verwendet werden, um die KMHS auszumessen. Mikrowellen-Strahlung wird nämlich von Wasserdampf in der Erdatmosphäre relativ stark absorbiert, also muss man die Messungen in möglichst großer Höhe durchführen. Der berühmteste Satellit zur Messung der Temperatur der KMHS war COBE (COsmic Background Explorer), welcher die Erde umkreiste und 1989-93 Daten aufnahm.

COBE trug mehrere Instrumente, unter anderem das sogenannte FIRAS-Experiment. Dieses vermaß die Temperatur der KMHS und ihr genaues Spektrum. Wie oben erwähnt, sagt die UT voraus, dass dieses Spektrum ein perfektes Schwarzkörper-Spektrum sein sollte - und diese Vorhersage wurde von FIRAS mit außerordentlicher Genauigkeit bestätigt. Das Diagramm unten zeigt die Daten von FIRAS und daran angepasst ein Schwarzkörper-Spektrum. Beachten Sie, dass die gezeigten Fehlerbalken 400 Standardabweichungen entsprechen!

Spectrum of the CMBR

Manchmal hört man die Behauptung, die KMHS sei nicht wirklich eine Vorhersage der UT, sondern mehr eine Art "Rückprojektion": die ursprüngliche von Gamow vorhergesagte Temperatur stimmte nicht besonders gut, und angeblich konnte der richtige Wert nur erhalten werden, indem man so lange an den Parametern der Theorie herumdrehte, bis die Vorhersagen endlich mit den Beobachten übereinstimmten. Leute, die solche Behauptungen aufstellen, übersehen allerdings mindestens zwei wesentliche Punkte:

Außer den oben angeführten Argumenten, warum die KMHS nicht von (nahen) Sternen oder Gaswolken kommen kann, gibt es noch eine weitere Möglichkeit, ihren kosmologischen Ursprung zu überprüfen. Wie erwähnt, hat sich die Temperatur der KMHS mit der Zeit geändert; früher war sie weit heißer als heute. Man kann nun das Licht von weit entfernten Galaxien untersuchen, um festzustellen, ob es zu der Zeit, als das nun von uns gesehene Licht ausgesandt wurde, in jenen Galaxien eine Strahlung der von der UT vorhergesagten Temperatur gab. Für ein Beispiel einer solchen Studie siehe Srianand 2000; die bisher erhaltenen Daten sind im Diagramm unten zusammengefasst (freundlicherweise zur Verfügung gestellt von Ned Wright). Obwohl bisher nicht allzu viele Daten zur Verfügung stehen und die Ergebnisse noch nicht wirklich schlüssig sind, sieht man doch, dass sie recht gut mit den Vorhersagen der UT übereinstimmen.

Changing temperature of the 
CMBR

e) Fluktuationen in der KMHS

Wie bereits oben erwähnt, ist die KMHS sehr gleichförmig: die Temperaturunterschiede in verschiedenen Richtungen betragen weniger als 0.001 K. Daraus folgt, dass das Gas bzw. Plasma, von dem diese Strahlung stammt, ebenfalls sehr gleichförmig verteilt gewesen sein muss. Einerseits passt dies sehr gut zum kosmologischen Prinzip - aber andererseits erhebt sich die Frage: wenn die Materie im Universum zu der Zeit, als die KMHS ausgesandt wurde, total gleichförmig verteilt war, wie kann das Universum dann heutzutage so total nicht-gleichförmig sein? Mit anderen Worten: wie konnten sich aus einem Komplett homogenen Gas Galaxienhaufen, Galaxien, Sterne und Planeten formen?

Zunächst wäre hier zu beachten, dass ein komplett homogenes Gas letztlich gar nicht möglich ist; dies verbietet die Quantentheorie. Ein komplett homogenes Gas würde Heisenbergs Unschärferelation verletzen; laut der Quantenfeldtheorie gibt es daher immer sogenannte "Quantenfluktuationen". Damit bleiben zwei Fragenkomplexe übrig:

Der zweite Fragenkomplex wird weiter unten im Abschnitt 2f diskutiert werden; hier soll es erst mal nur um den ersten gehen.

Der erste Versuch, die Schwankungen zu messen, wurde vom DMR-Instrument auf dem COBE-Satelliten durchgeführt. Es fand in der Tat Fluktuationen, aber diese waren weit kleiner als damals noch erwartet (die Erwartungen basierten auf dem inzwischen veralteten Modell eines Universums ohne Kosmologische Konstante). Da die Instrumente auch nur für diese erwartete Größe gebaut worden waren, waren die tatsächlichen Fluktuationen fast nicht messbar, gerade an der Empfindlichkeitsgrenze der Instrumente. Dies verleitete manche Leute zu der Behauptung, die aufgenommenen Daten wären letztlich nur statistisches Rauschen, nicht wirklich ein aussagekräftiges Signal.

Da die Ergebnisse aber dennoch einige der von der UT vorhergesagten Charakteristika hatten, nahmen die meisten Astronomen an, dass die UT grundsätzlich doch stimmt, aber einige der Parameter falsch gewählt waren (was sich ja dann schließlich auch als richtig herausstellte). Dies motivierte weitere Messungen, zunächst vor allem mit Ballonen durchgeführt. Eine Liste dieser sogenannten suborbitalen Experimenten findet sich auf der LAMDBA-Website, NASAs zentrale Datensammelstelle fürr die Erfoschung der KMHS. Eins der bekanntesten davon war das Boomerang-Experiment, welches erstmal 1998 gestartet wurde. Solche Ballon-Experimente sind im Vergleich zu Satelliten relativ billig, erreichen aber dennoch eine genügende Höhe, damit der absorbierende Wasserdampf in der Atmosphäre die Messungen nicht mehr allzu sehr stört. Trotz den im Vergleich zu Satellitenmissionen nur relativ kurzen Beobachtungszeiten gelang es diesen Ballon-gebundenen Experimenten zu zeigen, dass die Fluktuationen tatsächlich existieren, und es war auch ein erster Vergleich mit den Vorhersagen der UT möglich.

Im Jahre 2001 wurde dann der MAP-Satellit gestartet ("Microwave Anisotropy Probe", außerdem Englisch "map" = "Karte"), welcher später auf "WMAP" umgetauft wurde, im Gedenken an D. T. Wilkinson. Dieser Satellit hat nicht nur eine höhere Empfindlichkeit als COBE, sondern auch eine weit bessere Winkelauflösung. Dies kann sehr schön in den Bildern unten gesehen werden, in denen die kompletten Himmelskarten von COBE und WMAP direkt miteinander verglichen werden (Bild freundlicherweise zur Verfügung gestellt vom NASA/WMAP-Team).

Comparsion of the sky maps 
taken by COBE and WMAP
Der Satellit benötigte etwa drei Monate, um zu seinem Beobachtungsplatz zu gelangen (der sogenannte Lagrange-Punkt L2), und nahm danach eineinhalb Jahre lang Daten auf, bevor die ersten Schlussfolgerungen aus den Beobachtungen gezogen werden konnten. Er ist immer noch dort, nach inzwischen vier Jahren des Datensammelns.

Im Frühling 2003 wurden die ersten Ergebnisse veröffentlicht - und sie waren von einer atemberaubenden Genauigkeit. Beispielsweise konnte man all die Jahrzehnte vorher das Alter des Universums bestenfalls auf etwa zwei Milliarden Jahre genau bestimmen; mit den Daten von WMAP war es plötzlich möglich, das Alter mit einem Fehler von weniger als 0,2 Milliarden Jahren anzugeben! Zum Vergleich: das Alter der Erde ist nicht viel besser bekannt, der Fehler beträgt hier etwa 0,05 Milliarden Jahre - obwohl dieses Alter weit direkter gemessen werden kann als das des Universums. Neben dieser offensichtlichen Verbesserung war es auch für einige andere kosmologische Parameter möglich, sie mit weit größerer Genauigkeit als zuvor zu bestimmen. Außerdem gewann man neue Belege dafür, dass das Universum zum größten Teil aus Dunkler Energie besteht, und dass die Materie im Universe zum größten Teil dunkel ist. Auf der Website des WMAP-Satelliten findet man sowohl die Ergebnisse der Mission für Laien erklärt als auch eine Liste der wissenschaftlichen Veröffentlichungen.

Nun war es möglich, einige der Vorhersagen für die genaue Struktur der Fluktuationen im Detail zu testen. Im Allgemeinen werden die Daten in etwa folgendermaßen weiterverarbeitet (stark vereinfacht dargestellt!): man betrachtet zwei Punkte am Himmel mit gegebenem Winkelabstand und berechnet die Differenz der Temperaturen der KMHS an diesen beiden Punkten. Dies wird für alle solche Punktepaare mit demselben Winkelabstand wiederholt. Schließlich berechnet man den Durchschnittswert dieser Unterscheide. Diese durchschnittlichen Unterschiede werden dann über der Winkelabstand aufgetragen. Das Ergebnis heißt das (Winkel-)Leistungsspektrum (Englisch: (angular) power spectrum) der KMHS. Allerdings wird auf der x-Achse solcher Diagramme meist nicht wirklich der Winkelabstand aufgetragen, sondern man sieht dort den Buchstaben "l". Dieses "l" nennt man die "Multipol-Ordnung", und es hängt mit dem Winkelabstand alpha grob über die Beziehung alpha = 180°/l zusammen. Wer sich genauer dafür interessiert, sollte unter dem Stichwort "Multipol-Entwicklung" nachlesen; einige Details finden sich beispielsweise in diesen Vortragsnotizen zum Thema Are CMB fluctuations really adiabatic?.

Die UT macht sehr spezifische Vorhersagen über die Form der Leistungsspektrums: es muss für kleine l langsam ansteigen, dann folgt eine Spitze bei etwa l = 200, und dann muss die Kurve wieder abfallen, mit mehreren zusätzlichen Spitzen danach. Die erste Spitze rührt von Schwankungen her, die heutzutage am Himmel einen Winkelabstand von etwa einem Grad haben. Schwankungen dieser Größe rühren letztlich von Schallwellen mit sehr langen Wellenlängen her, die sich im Plasma, von dem die KMHS stammt, ausbreiteten. Deshalb nennt man diese Spitze oft die "(erste) akustische Spitze" (Englisch: (first) acoustic peak). Die Existenz dieser Spitze im Spektrum allein, und erst recht der gesamte Verlauf der Kurve, ist ein starker Beleg, dass die UT die Quelle der KMHS richtig beschreibt. Unten ist ein Diagramm gezeigt, das neben den Ergebnissen und zwei anderen Experimenten auch eine an die Daten angepasste theoretische Kurve (rot) zeigt (freundlicherweise zur Verfügung gestellt vom NASA/WMAP-Team). Weitere Details sind in der Veröffentlichung Angular Power Spectrum des WMAP-Teams zu finden.

Angular power spectrum

Die genaue Form der Kurve, vor allem die genauen Positionen der Spitzen, hängen von mehreren kosmologischen Parametern ab. Indem man die Kurve aus den Beobachtungsdaten ermittelt, kann man diese Parameter bestimmen. Die Messungen von WMAP waren bisher die genauesten - und sie stimmen sehr schön mit früheren Messungen derselben Parametern überein; sowohl mit Messungen, die mit ähnlichen, als auch mit solchen, die mit völlig verschiedenen Methoden durchgeführt wurden. Dies wird in der Veröffentlichung Determination of Cosmological Parameters des WMAP-Teams im Detail ausgeführt

f) Großräumige Strukturen im Universum

Die Temperaturschwankungen, die wir heute in der KMHS beobachten können, entsprechen Dichteschwankungen im Plasma, welches die Strahlung aussandte. Die Gravitation sorgte dann dafür, dass diese Schwankungen mit der Zeit immer größer wurden: die Materie in dichteren Gegenden übte eine größere Anziehungskraft auf die umliegenden Gegenden aus, zog also noch mehr Materie an, und so wurden diese Gegenden noch dichter usw. Aus diesen Dichteschwankungen entwickelten sich so mit der Zeit Sterne, Galaxien, Galaxienhaufen und -superhaufen. Die Verteilung der Galaxien(super)haufen im Universum wird in der Kosmologie die "großräumige Struktur des Universums" (Englisch: large-scale structure) genannt.

Ein relativ einfacher erster Test, ob diese Struktur wirklich aus den Fluktuationen entstand, die wir in der KMHS beobachten können, besteht darin, dass man sich anschaut, was aus dem deutlichsten (statistischen) Merkmal der Fluktuationen geworden ist: der (ersten) "akustischen Spitze". Diese Spitze im Leistungsspektrum sagt uns, dass im Mittel die Temperaturschwankungen für einen Winkelabstand von etwa einem Grad am größten sind; für andere Winkelabstände erhält man im Mittel nur kleinere Schwankungen. Es folgt, dass es im frühen Universum einen bestimmten Abstand gab, in dem die Dichteunterschiede am größten waren; dieser Abstand entspricht im Wesentlichen der halben Wellenlänge der Dichte- bzw. Schallwellen im Plasma, die damals die größte Amplitude hatten. Diese Wellenlänge wird im Wesentlichen durch die Zeit bestimmt, die die Dichteschwankungen hatten, um sich auszubreiten; man erhält eine Länge von der Größenordnung 500 000 Lichtjahre (da das Universum zu diesem Zeitpunkt einige hunderttausend Jahre alt war). Da sich das Weltall seitdem ausgedehnt hat, wuchs diese Länge inzwischen auf etwa 500 Millionen Lichtjahre an. Schaut man sich also die heutige Verteilung der Galaxien(haufen) an, so erwartet man, in Abständen von etwa 500 Millionen Lichtjahren jeweils ein besonders starkes "Zusammenklumpen". Und genau dies wurde in der Tat im Jahre 2005 von zwei Studien beobachtet.

Statt sich solche speziellen Einzelheiten anzuschauen, die relativ einfach rechnerisch behandelt werden können, kann man auch versuchen, das komplette bekannten Wissen über die Dichtefluktuationen als Eingabe für Computersimulationen des Wachstums der Strukturen verwenden. Im Wesentlichen benutzt man dafür ein drei-dimensionales Gitternetz mit möglichst vielen Zellen, in die möglichst viele Teilchen (wobei jedes "Teilchen" im Allgemeinen einem kompletten Galaxienhaufen entspricht!) so verteilt werden, dass sich die beobachtete Dichteverteilung zur Zeit der Emission der KMHS ergibt. Der Computer berechnet dann die gegenseitige Schwereanziehung zwischen all diesen Zellen, und wie die Schwankungen sich dementsprechend zeitlich ändern. Solche Computersimulationen werden schon seit mehreren Jahrzehnten durchgeführt, wobei die verwendeten Computer natürlich immer besser wurden und damit auch eine immer bessere Auflösung (mehr Zellen und mehr Teilchen) ermöglichten.

White (1997) ist ein guter Artikel, in dem die Strukturbildung, ihre Simulation mittels Computern und auch einige vergleichende Beobachtungsergebnisse besprochen werden. Gezeigt werden Ergebnisse für vier verschiedene Modelle, darunter das zu jener Zeit noch übliche CDM-Modell, aber auch ein Modell mit einer Kosmologischen Konstante. Dies zeigt, dass auch zu einer Zeit, als es üblich war, ohne eine Kosmologische Konstante zu rechnen, diese Möglichkeit nicht völlig außer acht gelassen wurde - entgegen der manchmal gelesenen Behauptung, dass die Kosmologische Konstante jahrzehntelang in der astronomischen Literatur komplett ignoriert wurde.

Eine andere zu dieser Zeit durchgeführte Studie ist Colombi (1996). In diesem Artikel wurden verschiedene Modelle mit unterschiedlichen Anteilen an heißer und kalter Dunkler Materie untersucht, und es wurden auch einige Versuche gemacht, "warme" Dunkle Materie miteinzubeziehen (also Dunkle Materie, die sich verglichen mit der Lichtgeschwindigkeit weder besonders langsam noch besonders schnell bewegt). Abbildung 7 des Artikels zeigt einen schönen bildlichen Vergleich zwischen beobachteten Galaxienverteilungen und den Ergebnissen der Simulationen.

Offensichtlich ist es aber nicht ausreichend, die Ergebnisse der Simulationen nur "per Auge" mit den Beobachtungen zu vergleichen. Man benötigt quantitative statistische Analysen; auch diese wurden in den oben erwähnten Studien durchgeführt. Passende statistische Analysemethoden werden beispielsweise ausführlich im Artikel Clustering statistics in cosmology diskutiert, welcher zusätzlich auch viele nützliche Verweise auf sowohl Beobachtungsdaten als auch theoretische Rechnungen und Simulationen enthält.

Seit den ersten Untersuchungen (die ernsthaft etwa in den frühen 80er Jahren begannen) sind die Simulationen um vieles besser geworden. Eine der bekanntesten Arbeitsgruppen, die solche Simulationen durchführt, ist das Virgo Consortium, eine internationale Vereinigung von mehreren astrophysikalischer Arbeitsgruppen und Gruppen von Computerfachleuten. Auf seiner Webseite ist eine große Anzahl von Veröffentlichungen zu finden, sowohl über Simulationen der kosmologischen Strukturbildung als auch anderer Strukturbildungs-Prozesse (wie beispielsweise von Galaxien). Vor relativ kurzer Zeit veröffentlichte außerdem das Max-Planck-Institut für Astrophysik die sogenannte "Millennium-Simulation"; Details und eine große Anzahl an Bildern sind auf Simulating the joint evolution of quasars, galaxies and their large-scale distribution zu finden.

Es zeigt sich, dass die Simulationen (die heutzutage das gängige Lambda CDM-Modell verwenden) die beobachtete Galaxienverteilung recht gut wiedergeben - zumindest auf großen Skalen. Auf kleineren Skalen gibt es immer noch einige Probleme - beispielsweise sagen die Simulationen voraus, dass sich rund um die Milchstraße etwa 50 kleinere sogenannte "Satellitengalaxien" hätten formen sollen. Gefunden hat man dagegen bisher nur etwa 15. Dieses Problem wird im Abschnitt 4g weiter diskutiert werden.

Die bisher besprochenen Studien beschäftigten sich im Wesentlichen nur mit der Verteilung der Galaxien. Seit langem ist es allerdings bekannt, dass ein großer Teil der Materie im Universum in Form von großen interstellaren und auch intergalaktischen Gaswolken vorliegt. Diese Wolken sollten offensichtlich dieselbe Verteilung wie die Galaxien (oder, genauer gesagt, wie die Dunkle Materie) zeigen, da sie durch dieselben Gravitationskräfte beeinflusst werden.

Die Verteilung solcher Gaswolken ist aber viel schwieriger zu untersuchen als die der Galaxien, da die meisten von ihnen von sich aus kein Licht (oder andere nachweisbare Strahlung) abgeben. Eine häufig benutzte Methode, sie dennoch zu finden, ist, nach der Absorption des Lichtes von Hintergrundobjekten zu suchen. Hier bieten sich Quasare als Hintergrundobjekte an, da diese sowohl sehr hell sind als auch sehr weit entfernt liegen. Im Jahre 2004 wurde solch eine Studie durchgeführt - mit dem Ergebnis, dass die Verteilung der Gaswolken auf großen Skalen in der Tat den Vorhersagen der UT für die großräumige Struktur entspricht. Dies wird beispielsweise im Artikel Universal Truths: Distant quasars reveal content, age of universe ausführlich besprochen.

g) Das Alter der Sterne

Offensichtlich müssen alle Sterne im Universum jünger sein als das Universum selbst. Die Beobachtungsergebnisse von WMAP weisen darauf hin, dass die ersten Sterne wohl "geboren" wurden, als das Universum gerade mal etwa 200 Millionen Jahre alt war - also sollten wir keine Sterne älter als etwa 13,5 Milliarden Jahre sehen. Falls auf der anderen Seite die UT falsch ist, sollte es zumindest einige solche Sterne geben - denn kleine Sterne (Sterne mit Massen weniger als 1/10 unserer Sonne) können theoretisch bis zu 100 000 Milliarden Jahre alt werden!

Man muss hier allerdings auch beachten, dass es verschiedene sogenannte Populationen (Generationen) von Sternen gibt. Man unterscheidet Sterne der Population I, die relativ viele schwere Elemente enthalten, und solchen der Population II, die davon sehr wenig enthalten. In der Astronomie werden alle Elemente schwerer als Helium als "Metalle" bezeichnet; deswegen heißt der Gehalt an schweren Elementen auch die Metallizität eines Sterns. Die Erklärung der UT hierfür ist, dass die Sterne der Population II vor denen der Population I entstanden, zu einer Zeit, als es im Universum noch sehr wenige schwere Elemente gab - die primordiale Nukleosynthese (siehe Abschnitt 2c) erzeugte ja fast nur Helium. Allerdings erhebt sich die Frage, warum es denn heutzutage keine Sterne mehr gibt, die überhaupt keine schweren Elemente enthalten - solche Sterne ordnet man in eine (bisher hypothetische) Population III ein.

Um dies zu verstehen, muss man ein wenig über die Entstehung und Entwicklung von Sternen wissen. Zunächst hat die Anwesenheit von schweren Elementen einen großen Einfluss auf die Größe der entstehenden Sterne: als es noch keine schweren Elemente gab, konnten auch praktisch keine (komplexeren) Moleküle vorhanden sein, da die meisten komplexeren Moleküle Kohlenstoff enthalten. Das Fehlen von solch Molekülen führte wiederum dazu, dass die in sich zusammenfallenden Gaswolken, aus denen schließlich Sterne entstehen sollten, kaum ihre dabei entstehende Hitze durch Strahlung nach außen abgeben konnten. Waren die Gaswolken zu klein, so wirkte diese Hitze der Schwerkraft effizient entgegen, und die Wolken konnten nicht weiter in sich zusammenfallen. Also entstanden nur aus großen Gaswolken Sterne. Doch große Sterne "verbrennen" den in ihnen enthaltenen Wasserstoff sehr schnell und "leben" nur einige zehn Millionen Jahre! Es folgt also, dass die ersten Sterne, die praktisch nur aus Wasserstoff und dem Helium aus der primordialen Nukleosynthese bestanden, sehr groß und auch sehr kurzlebig gewesen sein müssen. All dies wird auch in diesem Vortrag über Reionization, und in den Artikeln The First Stars und New light on early stars ausführlich besprochen.

Es folgt, dass keiner der Sterne der Population III bis heute überlebt haben kann; alle beendeten ihre Existenz schon "kurz" nachdem sie begonnen hatte. Wie oben bereits erwähnt, entstanden diese Sterne etwa 200 Millionen Jahre nach dem Urknall. Um sie zu sehen, müssen wir also in Gegenden des Universums schauen, die sehr weit von uns entfernt sind - und dementsprechend sind diese Sterne für uns sehr lichtschwach. Außerdem hat sich das Universum seit dieser Zeit um etwa einen Faktor 20 ausgedehnt, und dementsprechend kann das Licht, das von diesen Sternen ausgesandt wurde, heutzutage praktisch nur noch als Infrarotstrahlung beobachtet werden (aufgrund der Rotverschiebung). Aufgrund dieser beiden Probleme sind unsere bisherigen Telekope nicht fähig, diese Sterne direkt zu beobachten. In einigen Jahren wird sich dies hoffentlich ändern, wenn das James-Webb-Weltraumteleskop gestartet wird. Es gibt allerdings auch bereits jetzt schon einige vielversprechende Ergebnisse , aufgenommen vom Spitzer-Weltraumteleskop.

Sterne der Population II und I enthalten dagegen schon weit mehr schwere Elemente und können daher länger leben. Unsere eigene Sonne gehört zur Population I; sie enthält etwa zwei Prozent an schweren Elementen. Sterne der Population II, die ja im Schnitt älter sein müssen als die der Population I, findet man dagegen vor allem in Kugelsternhaufen und in den zentralen Ausbauchungen (Englisch: bulges) und den Halos von Galaxien. Einige zusätzliche Informationen zu den verschiedenen Sternpopulationen findet man auch auf der entsprechenden Wikipedia-Seite.

Will man das Alter der ältesten Sterne wissen, so muss man also Sterne der Population II untersuchen. Das Alter von Sternen (bzw. eigentlich von Sterngruppen wie beispielsweise Kugelsternhaufen) kann mit Hilfe eines sogenannten Hertzsprung-Russell-Diagramms bestimmt werden. Dies wird beispielsweise im FAQ über astronomische Entfernungsbestimmungen oder auf dieser Seite über Hertzsprung Russell Diagram and Stellar Evolution näher erklärt. Doch dies ist nur eine von mehreren möglichen Methoden, wenn auch die am weitesten verbreitete.

Verschiedene Studien ergaben für das Alter einiger Kugelsternhaufen der Milchstraße zwischen 12 und 13 Milliarden Jahre (z. B. erhielt Krauss 2003 ein Alter von 12,2 Milliarden Jahren, mit Unsicherheiten von -1,2 bzw. +2,2 Milliarden Jahren). Hansen 2004 fand 12,1 +- 1,3 Milliarden Jahre, indem er das Abkühlen von Weißen Zwerge untersuchte. Der Beryllium-Gehalt der Sterne des Kugelsternhaufens NGC 6397 deutete auf ein Alter von 13,4 +- 0,8 Milliarden Jahre hin ( Pasquini 2004; siehe auch Estimating the Age of the Milky Way). Die relativ großen Unsicherheiten in diesen Ergebnissen rühren daher, dass alle diese Methoden wesentlich von unseren Theorien der Sternentwicklung abhängen, welche wiederum auf unserem Wissen über die in Sternen vorgehenden Kernreaktionen basieren. Aber diese sind bisher nicht in allen benötigten Details bekannt.

Vor kurzer Zeit wurden neue Ergebnisse über die Geschwindigkeit einer Kette von Kernreaktion erhalten, die in Sternen sehr wichtig ist, den sogenannten CNO-Zyklus. Diese Studie (Imbriani 2004) zeigte, dass die Geschwindigkeit weit langsamer ist als bisher vermutet - und hieraus folgt, dass die Sterne älter sind als bisher vermutet, um etwa 0,7 bis 1 Milliarde Jahre. Mit den oben erwähnten Daten von Pasquini ergibt sich, dass die ältesten Sterne der Milchstrasse 14,1 bis 14,4 Milliarden Jahre alt sein sollten. Dies ist älter als das aus anderen Messergebnissen erhaltene Alter des Universums (siehe beispielsweise die WMAP-Daten, Abschnitt 2d). Aber man muss hier auch die immer noch sehr großen Unsicherheiten dieser Altersbestimmungen beachten; und damit sind diese Sternalter immer noch mit dem auf andere Weise erhaltenen Alter des Universums konsistent.

Andererseits ist es auch möglich, das Alter der Milchstraße zu bestimmen, ohne sich auf Annahmen über Details der in den Sternen stattfindenden Kernreaktionen verlassen zu müssen, wie Dauphas (2005) zeigte. Er benutzte Beobachtungsergebnisse zur Häufigkeit von Uran (U-238) und Thorium (Th-232) sowohl in unserem Sonnensystem als auch in Halo-Sternen mit kleiner Metallizität, um das Alter unserer Galaxis zu ermitteln. Sein Ergebnis war 14,5 Milliarden Jahre, mit Unsicherheiten von -2,2 und +2,8 Milliarden Jahren. Berücksichtigt man diese Fehlergrenzen, so stimmt dies wieder gut mit dem von WMAP bestimmten Alter des Universums überein.

Ein weiteres interessantes Argument ist, dass man auch das Alter der Sterne in weit entfernten Galaxien ermitteln kann. Um dies zu erreichen, errechnet man zunächst theoretische Modelle dazu, wie das Spektrum einer Galaxis aussieht, wenn sie ein bestimmtes Alter hat (siehe z. B. Jimenez 2004), und vergleicht die Vorhersagen dieser Modelle dann mit beobachteten Galaxienspektren. Natürlich ist dies eine ziemlich komplizierte Methode, bei der die möglichen Fehler sogar noch größer sind als bei den oben diskutierten Methoden für die Bestimmung des Alters der Sterne in unserer "Nachbarschaft". Aber nichtsdestotrotz stimmen die bisherigen Ergebnisse gut mit dem überein, was man in einem Universum endlichen Alters erwartet: in Galaxien, die weit von uns entfernt sind (und die wir dementsprechend zu einer Zeit sehen, als sie noch sehr jung gewesen sein müssen), findet man tatsächlich nur junge Sterne. Beispielsweise fand Nolan (2003) für zwei Galaxien mit Rotverschiebungen von etwa 1.5, dass die Sterne dort nur Alter bis etwa maximal 3-4 Milliarden Jahre hatten. Mit Hilfe dieser Methode wurde außerdem bereits eine detaillierte Studie zur Sternentstehungs-Geschichte unsere Universums durchgeführt, indem man Beobachtungsergebnisse über das Alter von Sternen in fernen Galaxien benutzte. Es ergab sich, dass vor etwa 5 Milliarden Jahren die Sternentstehungsrate am höchsten war (Heavens 2004).

h) Entwicklung der Galaxien

Nicht nur die Sterne haben sich seit der Zeit, als sie erstmals im Universum auftauchten, verändert - sondern auch die Galaxien. Insbesondere besagen derzeitige Ideen zur Strukturbildung im Universum, dass die ersten Galaxien relativ klein und ziemlich unregelmäßig waren. Diese kleinen Galaxien verschmolzen dann allmählich miteinander, und es entstanden allmählich größere Galaxien. Durch komplizierte Schwerkraftwirkungen (die zwar nicht komplett verstanden sind, aber auch in Computersimulationen gesehen werden) entstanden außerdem in vielen Galaxien regelmäßige Strukturen wie beispielsweise Spiralarme.

Betrachtet man also sehr weit entfernte Gegenden des Universums (das heißt Objekte mit sehr hoher Rotverschiebung), so sollte man also nur kleine, irreguläre Galaxien sein. Das stimmt gut damit überein, was im Allgemeinen tatsächlich gesehen wird (betreffend der Ausnahmen und Probleme siehe weiter unten), beispielsweise im Hubble Deep Field, im Hubble Deep Field South", und im Hubble Ultra Deep Field, drei Bilder, die das Hubble-Weltraumteleskops mit sehr langer Belichtungszeit aufgenommen hat. Beachten Sie, dass die großen, regelmäßig aussehenden Galaxien in diesen Bildern sich im Vordergrund befinden, bei kleinen Rotverschiebungen (also relativ nahe Objekte sind). Die wirklich weit entfernten Galaxien sind in diesen Bildern nur als kleine Flecken im Hintergrund zu sehen; um sie genauer zu untersuchen, muss man die Bilder mit hoher Auflösung betrachten.

Eine andere wichtige Beobachtung, die zeigt, dass sich die Galaxien mit der Zeit verändert haben, ist die Tatsache, dass sich Quasare in einem bestimmten Bereich von Rotverschiebungen konzentrieren - das heißt, sie existierten vor allem nur in einer bestimmten Zeitepoche. Für statische Modelle des Universums ist dies nur schwer zu erklären. Die UT verweist dagegen darauf, dass es im frühen Universum noch sehr viel mehr freies Gas und Staub gab, und Zusammenstöße zwischen Galaxien häufiger statt fanden. Dies ermöglichte es den Schwarzen Löchern, die in den Zentren vieler Galaxien sitzen, viel mehr Materie zu schlucken, als es ihnen heutzutage möglich ist - und diese gewaltige Aktivität jener Schwarzen Löcher sehen wir heutzutage als Quasar-Aktivität der jeweiligen Galaxien.

Man muss hier allerdings auch zugeben, dass die Entstehung und Entwicklung der Galaxien eines der Gebiete ist, auf dem die UT bisher noch die meisten Probleme hat: im Gegensatz zu der Vorhersage, dass alle Galaxien mit hoher Rotverschiebung klein und unregelmäßig sein sollten, wurden in den letzten Jahren mehrmals große, "ausgereifte" Galaxien und Galaxienhaufen gefunden (siehe z. B. Cimatti 2004). Von Gegnern der UT wird dies gerne als überzeugende Widerlegung der Theorie zitiert - aber sie vergessen dabei (oder ignorieren), dass das Problem nicht bei der UT liegen muss, sondern genausogut in unseren Ideen zur Entstehung und Entwicklung von (kleineren) Strukturen begründet sein kann. Mehr dazu unten im Abschnitt 3g.

i) Zeitdilatation in Supernova-Helligkeitskurven

Wie bereits in Abschnitt 2b erklärt, führt die Ausdehnung des Universums zu einer Rotverschiebung des Lichts, das heißt seine Wellenlänge wird größer. Das bedeutet aber, das die Zeit zwischen dem Eintreffen zweier Wellenberge beim Beobachter größer wird (da ja die Lichtgeschwindigkeit konstant bleibt). Stellen Sie sich nun zwei Ereignisse vor, die auf irgendeinem fernen Objekt stattfanden. Offensichtlich muss die Anzahl der Wellenberge, die zwischen diesen beiden Ereignissen ausgesandt wurden, die gleiche wie heute sein, wenn wir die ankommende Welle beobachten. Da aber für den Beobachter heute jede einzelne Oszillation länger dauert als zu der Zeit, als das Licht ausgesandt wurde, erscheint der Zeitabstand zwischen den beiden Ereignissen also länger, als er wirklich war.

Die UT sagt damit also voraus, dass Ereignisse, die sich in weiter Entfernung abgespielt haben, heute in einer Art "Zeitlupe" gesehen werden sollten. Da die Quelle dieses Effekts dieselbe ist wie für die normale Rotverschiebung, sagt die UT voraus, dass der Faktor, um die die Zeit langsamer abzulaufen scheint, gleich dem Rotverschiebungsfaktor sein sollte (welcher sich aus eins plus z berechnet, wobei z in der Kosmologie die Rotverschiebung eines Objekts bezeichnet. Eine alternative, allerdings irreführende Betrachtungsweise wäre hier, dass es sich einfach um die Zeitdilatation der Speziellen Relativitätstheorie handelt, da sich diese weit entfernten Objekte ja (scheinbar) mit hoher Geschwindigkeit von uns wegbewegen. Allerdings treten bei dieser Interpretation ähnliche Probleme auf wie schon bei der Interpretation der Rotverschiebung als Doppler-Verschiebung (siehe Abschnitt 2b).

Eine einfache Möglichkeit, diese Vorhersagen zu testen, bieten Supernovae. Es ist eine wohlbekannte Tatsache, dass die Helligkeit einer Supernova vom Typ Ia zunächst stark ansteigt und dann über einen Zeitraum von mehreren Wochenlangsam wieder abklingt. Die Abklingzeit ist für alle Supernovae dieses Zeit mit ziemlich guter Genauigkeit gleich; sie hängt ein wenig von der genauen chemischen Zusammensetzung des Sterns zusammen, aber man glaubt, dass man diese Effekte im Griff behalten kann, indem man die Beobachtungsdaten sorgfältig analysiert.

Inzwischen gibt es schon eine ganze Menge wissenschaftliche Veröffentlichungen über solche Supernova-Studien; siehe beispielsweise Leibundgut 1996, Riess 1997, Goldhaber 2001, oder Knop 2003. Aus den Daten ist es offensichtlich, dass die Vorhersage der UT in der Tat sehr gut erfüllt ist - trotz der teilweise recht großen Unsicherheiten in den Daten. Eine statistische Analyse einer dieser Datensammlungen zeigte, dass die Alternative "keine Zeitdilatation" um mehr als 18 Standardabweichungen ausgeschlossen ist! Das Diagramm unten zeigt die von Goldhaber erhaltenen Daten (freundlicherweise zur Verfügung gestellt von Ned Wright):

Time dilation in supernova 
brightness curves vs. redshift

j) Tolman-Tests

Die UT sagt nicht nur voraus, dass sich die Wellenlänge von Licht durch die Ausdehnung des Universums verändern sollte (wobei die beobachtete Wellenlänge um einen Faktor 1+z von der ursprünglichen unterscheidet; z ist hier die Rotverschiebung), sondern fordert auch, dass sich die Oberflächenhelligkeit eines Objekts um den Faktor (1+z)^4 verkleinert. Eine wichtige Folge dieses Effekts ist, dass die thermische Strahlung eines Schwarzen Körpers durch die Rotverschiebung immer noch als thermische Strahlung erscheint - allerdings mit einer Temperatur, die um den Faktor 1+z kleiner ist. Indem man also die Abweichung des beobachteten KMHS-Spektrums (das ja von einem perfekten Schwarzen Körper stammen sollte) vom Spektrum eines Schwarzen Körpers misst, kann man testen, ob die Ausdehnung des Universums wirklich so statt fand wie von der UT beschrieben. Diese Messung wurde im Jahre 1990 vom COBE-Satelliten durchgeführt; es ergab sich, dass das KMHS-Spektrum (mit Abweichungen von höchstens 1/10000) mit dem eines Schwarzen Körpers übereinstimmt (Mather 1990, Fixsen 1996).

Dass die Oberflächenhelligkeit eines Objekts mit dem Faktor (1+z)^4 abnehmen muss, wurde bereits 1930 von Tolman gezeigt. Da die Existenz der KMHS noch nicht bekannt war, schlug er damals vor, sogenannte "Standardkerzen" (das heißt Objekte bekannter, möglichst konstanter absoluter Helligkeit) für den Test dieses Effekts zu benutzen. Hubble und Tolman wiesen beiden darauf hin, dass solch ein Test die Idee eines sich ausdehnenden Universums überprüft. Auch Peebles diskutiert dies kurz in seinem Buch, im Abschnitt über nicht-kosmologische Rotverschiebungen.

Seit Tolmans Vorschlage wurden viele Versuche unternommen, einen solchen Test durchzuführen; meist indem man Galaxien als "Standardkerzen" verwendet. Allerdings stößt man dabei auf das Problem, dass Galaxien nicht wirklich eine konstante absolute Helligkeit haben: sogenannte "Star bursts" (Perioden starker Sternentstehung), chemische Veränderungen des innergalaktischen Gases durch Anreicherung durch Supernovae, Verschmelzungen mit anderen Galaxien usw. führen dazu, dass sich die Helligkeit einer Galaxis im Allgemeinen zeitlich stark ändert. Man kann allerdings versuchen, diese "intrinsischen" Helligkeitsänderungen zu berücksichtigen, indem man Modelle und Simulationen zur zeitlichen Entwicklung von Galaxien studiert.

Eine moderne Version des Tolman-Tests wird in einer Reihe von Veröffentlichungen von Lubin et al. (2001) beschrieben. Ihre Ergebnisse waren innerhalb der Fehlergrenzen konsistent mit der Vorhersage der UT, wohingegen andere Modelle für die Rotverschiebung (wie "müdes Licht", siehe Abschnitt 4c) eindeutig ausgeschlossen sind. Genauer: die Autoren fanden, dass gemessen in einem Filterbereich (R-Filter) die Oberflächenhelligkeit mit (1+z)^2,6 abnahm, in einem anderen (I-Filter) mit (1+z)^3,4. Der vorhersagte Faktor 4 ergibt sich also, wenn durch die innere Entwicklung der Galaxien ihre Helligkeit um einen Faktor (1+z)^1,4 beziehungsweise (1+z)^0,6 abnimmt - und dies stimmt mit Modellen galaktischer Entwicklung überein.

k) Der Sunyaev-Zel'dovich-Effekt

Die KMHS legte über eine lange Zeit hinweg einen langen Weg zurück, um schließlich uns Beobachter zu erreichen. Auf dem Weg traf sie auf viele riesige Gaswolken, Galaxienhaufen usw., welche viele geladene Teilchen enthielten. Aber es ist eine wohlbekannte Tatsache, dass elektromagnetische Strahlung (bzw. Photonen) und elektrische geladene Teilchen einander streuen (ablenken) können, wobei im Allgemeinen die Energie der Strahlung abnimmt (Compton-Effekt). Aber wenn die geladenen Teilchen sehr viel Energie haben (das heißt, sich sehr schnell bewegen), kann bei solch einer Streuung die Energie der Photonen auch erhöht werden; dies wird als inverser Compton-Effekt bezeichnet.

Die UT sagt damit also voraus, dass die aus der Richtung großer Galaxienhaufen kommenden Photonen der KMHS eine höhere Energie haben sollten als die aus Richtungen, in denen weniger Galaxien zu sehen sind. Diesen Effekt nennt man den (thermischen) Sunyaev-Zel'dovich-Effekt. Mehr Details sowohl zu diesem Effekt als auch zu anderen Arten können auf dieser Website zum The Sunyaev-Zel'dovich effect gefunden werden. Sie bietet außerdem auch eine Vielzahl an Beobachtungsdaten.

Wie die Daten klar zeigen, tritt der Effekt tatsächlich wie vorhergesagt auf. Dies ist zunächst ein weiterer guter Beleg dafür, dass die KMHS tatsächlich eine kosmologische Quelle hat (wenn sie von Galaxienhaufen bei relativ hohen Rotverschiebungen gestört wegen kann, so folgt, dass ihre Quelle dahinter liegen muss, sie also keinen "lokalen" Ursprung haben kann). Zweitens kann man eine quantitative Analyse der Beobachtungsdaten aber auch dafür benutzen, kosmologische Parameter wie beispielsweise den Hubble-Parameter zu bestimnmen. Dies wird beispielsweise auf der Seite The Sunyaev-Zel'dovich effect interpreted in cosmological terms näher diskutiert. Der auf diese Weise erhaltene Wert für den Hubble-Parameter ist mit großen Unsicherheiten behaftet, stimmt aber dennoch recht gut mit den mittels anderen Messmethoden gewonnenen Werten überein.

l) Der "Integrierte Sachs-Wolfe-Effekt"

Zusätzlich zum Sunyaev-Zel'dovich-Effekt haben Galaxienhaufen (und andere große Massenansammlungen) auch noch einen anderen Effekt auf die Photonen der KMHS. Es ist eine wohlbekannte Tatsache, dass Photonen auchvon der Schwerkraft beeinflusst werden: wenn sie sich auf ein schweres Objekt zubewegen, so nimmt ihre Energie zu; wenn sie sich davon wegbewegen, so nimmt ihre Energie ab. Man sagt hier auch, dass die Photonen in einen "Potentialtopf hinein fallen" bzw. "daraus herausklettern" (Englisch: potential well). Diese Energieänderung wird als gravitative Rotverschiebung bezeichnet (Englisch: gravitational redshift). Sie wird von der ART vorhergesagt und wurde im Jahre 1960 von Pound und Rebka zum ersten Mal experimentell bestätigt.

Falls der Potentialtopf zu dem Zeitpunkt, wenn das Photon "hinein fällt", dieselbe Tiefe hat wie zu dem Zeitpunkt, wenn es wieder "heraus klettert", so ergibt sich netto keine Energieänderung: die Energiezunahme beim Hineinfallen wird durch die Energieabnahme beim Herausklettern genau ausgeglichen. Aber aufgrund der Ausdehnung des Universums ändert sich Massenverteilungen zeitlich, und damit auch die Form und Tiefe von Potentialtöpfen. Dies führt dazu, dass die Energiezunahme und -abnahme sich nicht mehr gegenseitig gerade ausgleichen. Also können wir heutzutage einen Nettoeffekt auf die Photonen der KMHS beobachten - und dies nennt man den Integrierten Sachs-Wolfe effect.

Von Scranton (2003), Afshordi (2004), Boughn (2004) und Nolta (2004) durchgeführte Studien lieferten starke Belege dafür, dass dieser Effekt in der Tat auftritt. Die genaue Analyse der Daten zeigte außerdem, dass die Beobachtungen durch das Lambda CDM-Modell (also ein flaches Universum, das von Dunkler Energie dominiert ist) am besten erklärt werden.

m) Dunkle Materie

Auf den ersten Blick könnte man meinen, Dunkle Materie wäre von den Kosmologen einfach erfunden worden, um die UT vor einer offensichtlichen Widerlegung zu retten. Einige Leute nennen sie deswegen sogar einen "Epizykel" der UT, entsprechend den Epizyklen im Ptolemäischen geozentrischen Weltbild. Aber dies stimmt schlicht und einfach nicht.

Dies sieht man bereits daran, dass die Existenz von Dunkler Materie bereits 1933 von Zwicky und unabhängig davon 1940 von Oort postuliert wurde - lange bevor irgendwelche Beobachtungen Probleme mit der UT gezeigt hätten. Oort untersuchte die Rotation von Galaxien und bestimmte daraus deren Massen (siehe weiter unten für Details). Er fand, dass die Galaxienmassen sehr viel größer sein müssen als die sichtbaren Massen. Dies wird beispielsweise auch auf dieser Seite über Dark Matter näher ausgeführt. Zwickys Entdeckung war dagegen, dass die Geschwindigkeiten von Galaxien in Galaxienhaufen sehr viel größer sind, als die Stabilität der Galaxienhaufen eigentlich erlauben würde (siehe wiederum weiter unten). Eine genauere Betrachtung der frühen Geschichte der Dunkle Materie findet sich in van den Bergh 1999.

Die hauptsächlichen Belege, die wir heutzutage für die Existenz der Dunklen Materie haben, sind:

Mehrere dieser Belege werden auch recht ausführlich auf dieser Webseite über Dunkle Materie beschrieben. Ein wichtiger Punkt ist hier, dass alle diese Studien (mehr oder weniger) zeigen, dass die Verteilung der Dunklen Materie sich von jener der sichtbaren Materie unterscheidet. Das ist ein starker Hinweis darauf, dass die Dunkle Materie nicht baryonisch ist.

Es stellen sich nun einige offensichtliche Fragen: Was ist denn nun diese Dunkle Materie eigentlich? Warum gibt sie denn kein Licht (oder andere Strahlung) ab? Wenn sie nicht baryonisch ist, aus welchen Teilchen besteht sie dann? Und vor allem: warum haben wir diese Teilchen bisher nicht in unseren Laborexperimenten direkt gesehen?

In den letzten Jahrzehnten wurden mehrere experimentelle Suchen nach den Dunkle-Materie-Teilchen durchgeführt - bisher allerdings ohne einen direkten Erfolg. Der Artikel Particle Dark Matter: Evidence, Candidates and Constraints bietet eine gute Übersicht; ein Experiment, das vielversprechende Ergebnisse lieferte, wird in Dark-matter dispute intensifies angesprochen.

Wahrscheinlich wird sich die Situation in einigen Jahren dramatisch ändern, wenn der Large Hadron Collider in Betrieb geht. Die meisten Teilchenphysiker vermuten, dass er supersymmetrische Partner-Teilchen finden wird (was natürlich die Möglichkeit, dass Dunkle Materie aus solchen Teilchen besteht, sehr deutlich unterstützen würde) - oder etwas vollkommen neues und unerwartetes (das aber dennoch hoffentlich ein neues Licht auf die offenen Fragen werfen würde).

n) Dunkle Energie

Genau wie Dunkle Materie wird auch die Dunkle Energie öfters als ein Epizyklus der UT bezeichnet - ein verzweifelter Versuch der Kosmologen, eine Theorie zu retten, die offensichtlich versagt hat. Aber auch hier ist diese Anschuldigung wiederum nicht stichhaltig. Es stimmt, dass die einzigen verfügbaren Belege für die Existenz dieser seltsamen Energieart bisher nur aus der Kosmologie kommen - aber es gibt dort Belege, die von mehreren verschiedenen, unabhängigen Beobachtungsmethoden stammen, und all diese deuten auf dieselben Schlussfolgerungen hin. Außerdem gibt es einige theoretische Argumente dafür, dass diese Energieart in der Tat existieren muss. Zunächst die durch Beobachtungen gewonnenen Belege: Eine gute Zusammenfassung mehrerer dieser Belege ist auch in diesem Artikel über Dunkle Energie zu finden.

Zusätzlich zu den Beobachtungen gibt es auch theoretische Gründe dafür, die Existenz von Dunkler Energie zu erwarten. Die Quantenfeldtheorie sagt, dass es sogar in einem totalen Vakuum immer noch Energie geben sollte: sogenannte "Nullpunktsfluktuationen". Dies passt sehr schön zur Dunklen Energie: eine gleichmäßig verteilte Energieform, die unabhängig von irgendwelcher vorhandenen Materie überall existiert (siehe auch Abschnitt 1c).

Leider ist es bisher nicht möglich, die genaue Größe dieser "Vakuumenergie" aus der Quantenfeldtheorie vorherzusagen - da diese nicht nur von der Anzahl und Eigenschaften aller existierenden Teilchen abhängt (welche bisher nicht alle bekannt sind), sondern auch von der Frage, ob der Raum quantisiert ist oder nicht (das heißt, ob es eine kleinste mögliche Länge gibt oder nicht). Diese Frage wird wahrscheinlich erst dann beantwortbar sein, wenn eine schlüssige Quantentheorie der Gravitation gefunden worden ist.

Nichtsdestotrotz kann man versuchen, die Vakuumenergiedichte abzuschätzen - basierend auf unserem bisherigen Wissen über Elementarteilchen und ihre Eigenschaften. Allerdings führen solche Versuche zu Ergebnisse, die etwa 120 Größenordnungen als der tatsächlich beobachtete Wert sind! Dies wurde (zu Recht!) die "schlechteste Vorhersage, die je von der theoretischen Physik gemacht wurde" genannt.

Spekulationen, die über das bisher in der Teilchenphysik Bekannte hinausgehen, führen zum einfachst möglichen Ansatz, dass sich irgendwie all die Beiträge der verschiedenen Teilchen, bekannte und unbekannte, gegenseitig herauskürzen, und die gesamte Vakuumenergiedichte gleich Null sein sollte. Dies war mehrere Jahrzehnte lang die allgemein benutzte Annahme in der Teilchenphysik (und der Kosmologie); im Licht der experimentellen Belege für die Existenz der Dunklen Energie muss man diesen Ansatz nun neu überdenken. All diese Ansätze werden im Artikel What's the Energy Density of the Vacuum? ein wenig ausführlicher diskutiert.

Ein weiterer theoretischer Ansatz zur Erklärung der Dunklen Energie ist die sogenannte Quintessenz. Dies ist ein (bisher völlig hypothetisches) Feld (bzw. Teilchen; diese beiden Konzepte sind in der Quantenfeldtheorie eng verknüpft), welches auf natürliche Weise in seinem Grundzustand eine negative Energiedichte besitzt. Im Gegensatz zur normalen Vakuumenergie bleibt die Energiedichte dieses Feldes zeitlich nicht konstant. Dies kann benutzt werden, um die verblüffende Tatsache (das "Kosmologische-Konstante-Problem") zu erklären, dass die Dichten der Dunklen Energie und der Materie, die wir heute beobachten, fast gleich groß sind (70% bzw. 30% der kritischen Dichte), obwohl sie eigentlich beliebige, auch sehr stark unterschiedliche, Werte haben könnten. Bisherige Beobachtungen scheinen aber eher darauf hinzudeuten, dass die Dichte der Dunklen Energie konstant bleibt. Dies schränkt Quintessenz-Modelle ein, schließt sie aber bisher nicht endgültig aus.

In diesem Zusammenhang sollte man auch erwähnen, dass die sogenannte Inflationshypothese ein flaches Universum, das heißt eines mit genau der kritischen Dichte, voraussagt. Nimmt man diese Hypothese als wahr an (was von den meisten Kosmologen getan wird, da mehrere Beobachtungsergebnisse dafür sprechen und die Hypothese sehr elegant einige Probleme erklärt; mehr dazu im Abschnitt 3e), und kombiniert dies mit den Beobachtungsergebnissen, wonach die Materie maximal etwa 30% zur kritischen Dichte beiträgt, so hat man ein weiteres (theoretisches) Argument für die Existenz der Dunklen Energie. Dies wird im Artikel Dark Energy: Just What Theorists Ordered näher ausgeführt.

ZUsammenfassend: Im Gegensatz zur Dunklen Materie, wo es mehrere vielversprechende Kandidaten gibt und eine direkte Entdeckung der zugehörigen Teilchen in der nahen Zukunft zu erwarten ist, bleibt die Dunklen Energie bisher ein großes Rätsel. Es gibt einige Erklärungsvorschläge für sie, aber keiner davon ist wirklich zufriedenstellend und überzeugend, und außerdem ist es sehr schwierig, diese Ideen auch zu überprüfen. Hier kann man nur hoffen, dass Fortschritte in der theoretischen Physik (Quantengravitation etc.) ein wenig Licht auf diese Probleme werfen wird, was dann wiederum zu einigen überprüfbaren Vorhersagen führen sollte.

z) Konsistenz

Manchmal scheinen sich die Methoden, die zur Bestimmung der kosmologischen Parameter benutzt werden, aufeinander zu verlassen - und oft auch auf zusätzliche Annahmen. Außerdem scheint es in der UT eine ganze Menge dieser freien Parameter zu geben. Auf den ersten Blick könnte dies zu zweifeln an der UT führen, wie auch schon im Abschnitt 1d angesprochen.

Schaut man genauer hin, so stellt man allerdings fest, dass all diese verschiedenen Methoden ein Netzwek aus ineinandergreifenden, sich selbst und einander korrigierenden Methoden darstellt - und alle davon kommen zu denselben Schlussfolgerungen (innerhalb der Fehlergrenzen). Die Annahmen und freien Parameter, die im Modell und den Messungen verwendet werden, sind dadurch gerechtfertigt, dass man konsistente Ergebnisse erhält, wenn man sie benutzt.

Ein schönes Beispiel für diese Konsistenz zwischen den Ergebnissen verschiedener Methoden findet sich in einer der Veröffentlichungen des WMAP-Teams: Determination of Cosmological Parameters. In diesem wird Konsistenz gezeigt zwischen: dem aus den WMAP-Messungen erhaltene Alter des Universums und den beobachteten Altern der Sterne; dem von WMAP ermittelten Baryon-Photon-Verhältnis und dem beobachteten Deuterium-Helium-Verhältnis aus der primordialen Nukleosynthese; und dem aus den WMAP-Ergebnissen folgenden Wert für die Hubble-Konstante und direkten Messungen, die von einer Vielzahl von Beobachtungsmethoden stammen (Supernovae, die Tully-Fisher-Beziehung, Oberflächenhelligkeiten von Galaxien). Letztere liefern ebenfalls alle untereinander konsistente Werte. Außerdem stimmt die beobachtete großräumige Struktur des Universums mit den Ergebnissen der Computersimulation überein, die das Lambda CDM-Modell verwenden, welches aus den WMAP-Daten gewonnen wurde. Und schließlich hat man auch noch Übereinstimmung zwischen der WMAP-Beobachtung, dass Dunkle Energie existieren muss, und den Supernova-Studien, welche eine beschleunigte Ausdehnung des Universums zeigen.

3) Probleme und Einwände

Dieses Kapitel beschäftigt sich zunächst mit einigen Standard-Einwänden gegen die UT, welche man relativ häufig von Gegner der Theorie (Kreationisten und anderen) hört. Dann werden einige der verbleibenden wirklichen Probleme besprochen, und abschließend die Argumente zweier recht bekannter kritischer Astronomen diskutiert

a) "Aus dem Nichts kann nicht Etwas entstehen" - Der Erste Hauptsatz der Thermodynamik

Das Argument "aus dem Nichts kann nicht Etwas entstehen" ist für sich genommen nicht besonders überzeugend. Wir wissen bereits von der Quantenfeldtheorie, dass unter bestimmten Bestimmten tatsächlich etwas aus dem Nichts entstehen kann: sogenannte "Vakuumfluktuationen". Beispielsweise können ein Elektron, ein Positron und ein Photon zusammen im Prinzip aus dem Nichts entstehen, für eine kurze Weile existieren und sich dann wieder gegenseitig selbst vernichten. Es gibt verschiedene experimentelle Belege für solche Effekte, beispielsweise den Casimir-Effekt.

Das Entscheidende an diesen Effekten ist, dass sie keines der bekannten Erhaltungsgesetze der Physik verletzen (wie die Erhaltung der Energie, des Impulses und der Ladung). Solange diese Erhaltungsgesetze es zulassen, kann also tatsächlich etwas aus dem Nichts entstehen. Allerdings behaupten viele Leute, die UT würde den Erhaltungssatz der Energie (welcher im Wesentlichen identisch zum Ersten Hauptsatz der Thermodynamik ist) verletzen.

Dagegen gibt es aber mehrere gute Gegenargumente: zuallererstmal ist die UT gar nicht über den Ursprung des Universums, sondern nur über seine zeitliche Entwicklung. Also hat jede Aussage, dass das Universum doch nicht aus dem Nichts entstehen zu könnte, letztlich gar nichts mit dem Thema zu tun, das die UT eigentlich behandelt. Gleichermaßen kann man auch argumentieren, dass die Hauptsätze der Thermodynamik, wie alle bekannten Naturgesetze, für das heutige, bereits bestehende Universum gelten; wir wissen einfach nicht, ob sie auch (schon) galten, als das Universum gerade erst entstand. Drittens ist es nicht einmal klar, ob es überhaupt Sinn macht, über eine Zeit "vor dem Urknall" zu reden - also ist nicht klar, wie man denn die Energie vor und nach dem Urknall vergleichen und daraus folgern könnte, ob die Energie erhalten wurde oder nicht.

Das Auftauchen des Universums "aus dem Nichts" würde schließlich nur dann den ersten Hauptsatz der Thermodynamik verletzen, wenn sich die Energie vorher (falls man diese irgendwie sinnvoll definieren kann) von der Energie danach unterscheidet. Wahrscheinlich wird jeder zustimmen, dass "das Nichts" eine Energie von Null haben sollte; also ist der Hauptsatz nur verletzt, wenn die Gesamtenergie des Universums ungleich Null ist. Aber es gibt gute Argumente dafür, dass die Energie des Universums exakt gleich Null sein sollte!

Auf den ersten Blick wirkt diese Aussage natürlich mehr als überraschend, da offensichtlich all die Materie und Strahlung, die wir um Universum sehen können, eine große Menge Energie enthält. Aber man muss auch berücksichtigen, dass die potentielle Energie der Schwerkraft negativ ist. Ein Standardbeispiel, um dies zu begründen, ist eine Rakete, die die Erde verlässt; mit einer Geschwindigkeit, die so groß ist, dass die Rakete das Schwerefeld der Erde gerade "verlassen" könnte. Das bedeutet, dass die Geschwindigkeit der Rakete immer kleiner und kleiner wird, während sie sich (ohne weiteren Antrieb) weiter und weiter von der Erde wegbewegt, bis die Geschwindigkeit schließlich in "unendlich weiter" Entfernung genau Null ist (streng genommen muss man hier die mathematischen Grenzwerte betrachten). Also hat die Rakete in dieser "unendlich weiten" Entfernung keine (Bewegungs-)Energie mehr. Mit Anwendung des Energieerhaltungssatzes folgt, dass die Gesamtenergie der Rakete auch schon Null war, als sie die Erde gerade verliess. Aber zu jenem Zeitpunkt hatte sie eine hohe Geschwindigkeit, also eine hohe Bewegungsenergie. Es folgt, dass ihre potentielle Energie im Schwerefeld der Erde negativ gewesen sein muss. Für eine andere Erklärung hierfür, siehe beispielsweise diesen Forumsbeitrag zu Negative gravitational energy.

In einem Artikel in der Zeitschrift Nature im Jahre 1973 skizzierte E. Tryon ein Argument, das zeigte, dass die gesamte negative potentielle Energie der Schwerkraft dieselbe Größenordnung wie die positive Gesamtenergie der Materie und Strahlung des Universums haben sollte, woraus folgt, dass die Gesamtenergie des Universums in der Tat gleich Null ist. (Genauer gesagt zeigte sein Argument eigentlich nur, dass sie nahe Null sein sollte).

Tryons Argument benutzte allerdings im Wesentlichen die Newtonsche Physik; in der ART kann die physikalische Größe "potentielle Energie der Schwerkraft" eigentlich gar nicht sinnvoll definiert werden. Also muss man sich nach anderen Argumenten umschauen. Ein Problem hierbei ist, dass in der ART bereits die Größe "Gesamtenergie des Universums" eigentlich nicht sinnvoll definiert werden kann. Dies wird beispielsweise von Misner, Thorne und Wheeler ausführlich in Kapitel 20 ihres Buches diskutiert.

Andererseits berechnet Wald in seinem Buch über die ART die sogenannte "Hamiltonfunktion" der ART. In der klassischen Physik kann diese Funktion im Allgemeinen als die Gesamtenergie eines Systems interpretiert werden (allerdings gibt es auch in der klassischen Physik bereits einige Beispiele, bei denen dies schiefgeht). Wald zeigt anschließend, dass die Hamiltonfunktion für ein abgeschlossenes (positiv gekrümmtes) Universum exakt Null ist. Seine Argumente können auch auf ein flaches Universum übertragen werden, und es ergibt sich wieder, dass die Hamiltonfunktion, also die Gesamtenergie, exakt gleich Null ist. Für ein offenes (negativ gekrümmtes) Universum wäre die Hamiltonfunktion allerdings dagegen wieder nicht wohldefiniert.

Ein weiteres Problem mit der Erhaltung der Energie in der ART ergibt sich gerade aus der Nicht-Existenz des Konzepts einer "potentiellen Energie der Schwerkraft" in dieser Theorie. Einstein versuchte, dieses Konzept auch in der ART beizubehalten, musste dafür allerdings sogenannte "Pseudo-Tensoren" einführen. Heutzutage wird dieser Standpunkt nicht mehr als sinnvoll angesehen: physikalische Gesetze sollten nur unter Verwendung von Tensoren formuliert werden (siehe wiederum Misner, Thorne und Wheeler, Kapitel 20). Aber wenn es gar keine "potentielle Energie der Schwerkraft" gibt, dann kann die Erhaltung der Energie offensichtlich nicht mehr unter allen Umständen gelten (beispielsweise nicht im obigen Beispiel der Rakete). Dies wird ausführlicher auf dieser FAQ-Seite zur Energieerhaltung in der ART diskutiert.

Zusammenfassend: vom Standpunkt der ART aus muss die Gesamtenergie des Universums nicht erhalten sein, und ist eigentlich noch nicht einmal wohldefiniert. Damit wird jedes Argument gegen die UT, das auf dem Ersten Hauptsatz der Thermodynamik basier, irrelevant.

b) "Das heutige hochgeordnete Universum kann nicht aus einer Explosion entstanden sein" - Der Zweite Hauptsatz der Thermodynamik

Dieses Argument ist letztlich eine Variation eines Standard-Arguments der Kreationisten: "Laut dem Zweiten Hauptsatz der Thermodynamik kann keine Ordnung aus dem Chaos entstehen!". Üblicherweise ist das Gegenargument hierauf, dass der Zweite Hauptsatz zwar für alle Systeme gilt, aber die spezielle Formulierung, in der er besagt, dass die "Unordnung" (eigentlich: Entropie) nur zunehmen kann, nur für abgeschlossene Systeme gilt.

Aber offensichtlich ist das Universum als Ganzes gesehen ein abgeschlossenes System - also ist dies hier kein gültiges Gegenargument. Aber trotzdem ist der Zweite Hauptsatz kein Argument gegen die UT:

Trotzdem gibt es in der Tat ein Problem mit dem Zweiten Hauptsatz der Thermodynamik: Wenn die Entropie nur zunehmen kann, wie konnte das Universum dann eine so kleine Entropie haben, als es entstand? Wo kam diese kleine Entropie her? Darauf kann man eigentlich nur genauso antworten wie beim Ersten Gesetz der Thermodynamik: es ist weder klar, ob es überhaupt Sinn macht, über eine Zeit "vor dem Urknall" zu reden und die Entropie vorher und nachher zu vergleichen, noch ob die heute beobachteten Naturgesetze beim Ursprung des Universums bereits galten. Neben diesen Argumenten, die beide nicht gerade überzeugend wirken, bleibt uns nur zuzugeben: Wir wissen es (bisher?) nicht.

c) Atheistische Theorie

Von einigen religiös motivierten Gegner der UT hört man manchmal "Argumente" wie "Die UT wurde nur von Atheisten erfunden, um leugnen zu können, dass Gott die Welt erschaffen hat!". Selbst wenn diese Behauptung wahr wäre, so wäre dies offensichtlich kein gültiges wissenschaftliches Argument gegen die Theorie. Aber die Behauptung ist schlicht und einfach falsch.

Die UT wird nicht nur von den meisten großen christlichen (und anderen) Glaubensgemeinschaften akzeptiert, sondern sogar von einigen Gruppen von Kreationisten wie beispielsweise dem Astronomen Hugh Ross. Einige christliche Philosophen versuchen die UT gar als Beleg für die Existenz eines Schöpfers zu benutzen - sie weisen beispielsweise darauf hin, dass diese wissenschaftliche Theorie mit der Bible darin übereinstimmt, dass das Universum einen Anfang hatte, dass zuerst Licht da war (obwohl dies eine reichlich grobe Falschdarstellung der eigentlichen Aussagen der UT ist) usw. Artikel, die solche Argumente diskutieren, finden sich beispielsweise auf der Webseite Physics and Religion.

Letztlich sollte auch darauf hingewiesen werden, dass Lemaitre, einer der Begründer der UT (die wichtigsten Gleichungen der UT werden bis heute die "Friedmann-Lemaitre-Gleichungen" genannt), Jesuitebpriester war!

d) Sterne älter als das Universum?

Dies ist eigentlich ein inzwischen überholtes Problem, aber das es hin und wieder immer noch erwähnt wird, soll es hier auch angesprochen werden.

Mitte der 90er-Jahre war die Beschleunigung der Ausdehung des Universum noch nicht entdeckt worden. Messungen der Hubble-Konstanten ergaben zu dieser Zeit meist Werte um 27 Kilometer pro Sekunde und Millionen Lichtjahre - nicht sehr verschieden vom heutzutage allgemein akzeptierten Wert von etwa 22 Kilometer pro Sekunde und Millionen Lichtjahre. Da man damals aber noch ein Universum annahm, dessen Ausdehnung immer langsamer wird, ergab sich daraus ein Alter des Universums von nur etwa 10 Milliarden Jahren (statt den 13,7 Milliarden Jahren, die man erhält, wenn man den modernen Wert der Hubble-Konstanten und die Beschleunigung berücksichtigt).

Zur selben Zeit ergaben Abschätzung des Alters der ältesten Sterne Werte zwischen 13 und 18 Milliarden Jahren. Dies lag teilweise daran, dass die Entfernungen der Sterne damals noch nicht so gut bestimmt werden konnten (der Satellit Hipparcos machte hier große Fortschritte möglich), und teilweise auch an Unsicherheiten bezüglich der in den Sternen ablaufenden Kernreaktionen, die das "Altern" eines Sterns beeinflussen.

Zusammengenommen sah es also zu jener Zeit so aus, als ob es Sterne geben würde, die älter als das Universum selbst sind! Dies war damals ein recht großes Problem für die UT - aber heutzutage ist die Lösung klar: Das Universum ist älter, als damals angenommen wurde, und die Sterne jünger. Die modernen Altersbestimmungen für die ältesten Sterne stimmen gut mit dem Alter des Universums überein - siehe Abschnitt 2g.

e) Flachheit und Horizont

Bereits in den 70er-Jahren waren bekannt, dass die Dichte unserer Universums sehr nahe der kritischen Dichte ist (damals deuteten die Messungen auf etwa 30% hin). Auf den ersten Blick sieht dies nicht gerade nach einem Problem aus - aber in Wirklichkeit ist es eins. Laut der UT nimmt der Unterschied zwischen der tatsächlichen und der kritischen Dichte nämlich mit der Zeit sehr stark zu - und wenn die Dichte heute 30% des kritischen Werts ist, so folgt, dass sie in früheren Zeit des Universums extrem dicht an der kritischen Dichte gewesen sein muss, aber trotzdem nicht identisch! Beispielsweise hätte die Dichte einige Jahre nach dem Urknall etwa 99.9999999% des kritischen Werts sein müssen. Wäre die Dichte damals stärker von der kritischen Dichte abgewichen, so wäre die heutige Dichte sehr viel kleiner, nicht immer noch etwa 30% (hätte sie beispielsweise einige Jahre nach dem Urknall nur 99.99999% des kritischen Werts betragen, so wäre sie heute nur noch 0.3%).

Ein sehr kleiner Unterschied am Anfang hätte so zu einem sehr großen Unterschied heutzutage geführt - und mit einer um so viel kleineren Dichte hätte sich das Universum sehr viel schneller ausgedehnt, und keine Galaxien, Sterne und Planeten hätten sich formen können. Dies sah für viele Kosmologen nach einer fantastischen Feineinstellung (Englisch: "fine-tuning") aus. Da das Verhältnis der tatsächlichen zur kritischen Dichte die Krümmung des Universums bestimmt, und aus der Übereinstimmung beider Werte folgen würde, dass das Universum flach ist, wurde dies als das "Flachheits-Problem" in der Kosmologie bekannt.

Ein anderes Problem der Kosmologie zu jener Zeit, auf den ersten Blick nicht damit zusammenhängend, war das sogenannte "Horizont-Problem" In der Kosmologie versteht man unter dem Horizont den Abstand, den Objekte voneinander haben müssen, damit sie sich gegenseitig gerade nicht mehr kausal beeinflussen können (die Ausdehnungsgeschwindigkeit zwischen ihnen ist gerade groß genug, dass etwas, das sich mit Lichtgeschwindigkeit bewegt, nicht mehr vom einen zum anderen gelangen kann). Teile unseres Universums, die jenseits des (damaligen) Horizonts waren, als die KMHS abgestrahlt wurde, konnten deswegen nicht im thermischen Gleichgewicht mit näheren Teilen sein. Aber Beobachtungen der KMHS zeigten, dass statt dessen sehr große Bereiche des Universums, weit größer als der Horizont zu jenen Zeit, in der Tat im thermischen Gleichgewicht waren!

1981 schlug Guth eine mögliche Lösung für beide Probleme (und andere) vor - eine Hypothese, die heutzutage als Inflation bekannt ist und einen anerkannten Teil der Standard-UT bildet (Guth 1981). Im Wesentlichen sagt sie, dass die Ausdehnung des Universums zu einer sehr frühen Zeit (und nur für eine sehr kurze Zeitspanne) bereits schon einmal beschleunigt verlief - und zwar exponentiell! Auf diese Weise konnten Gebiete, die sehr viel kleiner waren als der Horizont (und folglich im thermischen Gleichgewicht) sehr schnell auf sehr große Bereiche anwachsen, wobei sie ihr thermisches Gleichgewicht beibehielten. Außerdem führte diese sehr schnelle Ausdehnung dazu, dass sich die Dichte des Universums sehr nahe an die kritische Dichte annäherte - das heißt, das Universum wurde (fast) flach.

Weitere Details hierzu finden sich beispielsweise im Wikipedia-Artikel zum Inflationären Universum . Die Inflation wird außerdem in Kapitel 5 nochmals angesprochen. Allerdings sollte man auch hier schon betonen, dass die Inflationshypothese nicht nur eine wilde Idee ist, die sich jemand ausgedacht hat, um die UT vor der Widerlegung zu retten, sondern dass sie auch quantitative Vorhersagen macht, die durch Beobachtungen überprüft werden können (und teilweise bereits wurden).

f) Materie-Antimaterie-Asymmetrie

Im sehr frühen Universum (die allerersten Sekundenbruchteile, noch lange vor der primordialen Nukleosynthese) gab es nur eine sehr heiße "Ursuppe", bestehend aus Materie- und Wechselwirkungsteilchen (Quarks, Elektronen, Positronen, Photonen, Gluonen, Neutrinos usw.). Materie- und Antimaterie-Teilchen entstanden fortwährend aus Photonen, Gluonen usw., und verschwanden gleich darauf wieder. Erst nachdem sich das Universum genügt abgekühlt hatte und nicht mehr ganz so dicht war, wurde es den Materie- und Antimaterie-Teilchen möglich, längere Zeit zu "überleben", anstatt sich praktisch sofort wieder gegenseitig zu vernichten.

Allerdings tut sich hier ein großes Problem auf: falls all diese Prozesse in einem thermischen Gleichgewicht abliefen, so hätten laut der Quantenfeldtheorie nach genügender Abkühlung praktisch gleich viele Materie- und Antimaterie-Teilchen überleben sollen. Statt dessen beobachten wir heutzutage im Universum praktisch nur Materie und keine Antimaterie! Dieses Problem wird in der Kosmologie als die "Materie-Antimaterie-Asymmetrie" bezeichnet.

Sakharov zeigte bereits 1967 auf, welche Bedingungen erfüllt gewesen sein müssen, damit diese Asymmetrie zustande gekommen sein konnte: die Reaktionen mussten (zumindest teilweise) außerhalb des thermischen Gleichgewichts statt gefunden haben; die sogenannte "CP-Symmetrie" der Teilchenphysik musste verletzt gewesen sein (mit anderen Worten: Teilchen und Anti-Teilchen müssen sich verschieden verhalten, im Gegensatz dazu, was die Teilchenphysiker damals annahmen); und die sogenannte "Baryonen-Zahl" konnte nicht erhalten gewesen sein ( Sakharov 1967).

Damit war klar, welche Bedingungen zu jener Zeit im Universum geherrscht haben mussten. Unklar waren (und sind teilweise immer noch) die Details dazu, wie dies erfüllt gewesen sein konnte. Moderne Lösungen des Problems benutzen die sogenannte "elektroschwache Symmetriebrechung": im sehr frühen Universum waren die elektromagnetische und die schwache Kernkraft noch miteinander vereinigt. Erst als das Universum weit genug herabgekühlt war (bei einer Temperatur von etwa 10^15 Grad und zu einer Zeit von etwa 10^(-10) Sekunden) wurden sie unterscheidbar. Dieser "Phasenübergang" führte, zumindest lokal und kurzzeitig, zu einer Störung des thermischen Gleichgewichts. Bei einer solch hohen Temperatur erlaubt das Standardmodell der Elementarteilchenphysik auch die Nichterhaltung der Baryonen-Zahl; und die Verletzung der CP-Symmetrie ist bereits von vornherein ein natürlicher Bestandteil der elektroschwachen Theorie.

Alle benötigten Bedingungen konnten also erfüllt sein. Wie bereits erwähnt, sind zwar noch nicht alle Details zum genauen Mechanismus geklärt (beispielsweise ist es noch nicht klar, ob die beobachtete Asymmetrie auch quantitativ erklärt werden kann), aber die meisten Teilchenphysiker und Kosmologen sind zuversichtlich, dass man auf der richtigen Spur ist, und höchstwahrscheinlich wird das Problem der Materie-Antimaterie-Asymmetrie relativ bald zufriedenstellend geklärt sein.

g) "Klein"-räumige Strukturen

In den letzten Jahren wurden einige unerwartete Beobachtungen gemacht, besonders durch die weitreichenden, hochauflösenden Teleskope wie Hubble: in riesigen Entfernungen (bei hohen Rotverschiebungen), entsprechend einem sehr jungen Universum, wurden Galaxien entdeckt, die bereits "ausgereift" aussehen. Sie sind sehr massereich und haben teilweise bereits gut ausformte Strukturen (Spiralarme und ähnliches). Einige Beispiele findet man im Artikel Old Galaxies in the Young Universe und in Cimatti 2004.

Man sollte hierbei allerdings beachten, dass diese Galaxien zwar einerseits bezüglich einiger Merkmale alt aussehen - aber andererseits enthalten sie nur junge Sterne! Das Alter der Sterne in diesen Galaxien, zusammengenommen mit der Zeit, die ihr Licht benötigte, um uns zu erreichen, ist immer noch konsistent mit dem Alter das Universums, das aus den WMAP-Daten und anderen bestimmt wurde. Nichtsdestotrotz widerspricht die Existenz solch massereicher, gut entwickelter Galaxien bei solch hohen Rotverschiebungen den derzeitigen Modellen zur Strukturbildung im Universum. Die wahrscheinlichste Erklärung ist bisher, dass das Problem nicht bei der UT liegt, sondern bei diesen Strukturbildungs-Modellen, besonders bei denen zur Galaxienbildung.

Die Entstehung und Entwicklung von Galaxien ist in der Astronomie immer noch ein sehr schwieriges Thema. Um nachzuvollziehen, wie diese statt findet, werden Computersimulationen durchgeführt, ganz ähnlich den Simulationen zur Entstehung der großräumigen Strukturen im Universum (siehe Abschnitt 2f). Aber diese Simulationen müssen diverse Annahmen und Vereinfachungen verwenden, bei denen nicht klar ist, inwieweit sie wirklich gültig sind. Ein weiteres Problem ist die stark beschränkte Auflösung der Simulationen - mit der derzeitigen Computerleistung kann man nur Systeme bestehend aus einigen hunderttausend, bestenfalls Millionen von Teilchen simulieren, wohingegen eine reale Galaxis aus einigen hundert Milliarden Sterne und Gas- und Staubwolken mit nochmals etwa derselben Masse besteht. Also muss jedes einzelne Teilchen eine ganze Gruppe von Gaswolken, Tausenden von Sternen usw. darstellen. Offensichtlich können dabei Effekte wie Sternentwicklung, Sternwinde usw., die starken Einfluss auf die Entwicklung einer Galaxis haben, nicht direkt berücksichtigt werden, und können nur sehr grob und ad hoc mit einbezogen werden.

Außerdem scheinen die allgemeinen Ergebnisse der Beobachtungen des Hubble-Teleskops eher das Gegenteil zu zeigen: zu einer Zeit von etwa einer Milliarde Jahren nach dem Urknall war das Universum demnach mit kleinen Galaxien gefüllt, die gerade nicht voll ausgeformt waren. Siehe dazu beispielsweise die Pressemitteilung Hubble Approaches the Final Frontier: The Dawn of Galaxies. Eine mögliche Erklärung wäre also vielleicht, dass Galaxien zu jener Zeit im Allgemeinen in der Tat klein und wenig ausgeformt waren, und Cimatti (und andere) schlicht und einfache einige "statische Ausreißer" gesehen haben. In Anbetracht der wachsenden Anzahl an Beispielen erscheint dies aber zunehmend unwahrscheinlich.

Die Beobachtung von Galaxien stellt die UT außerdem noch vor ein weiteres Problem. Praktisch alle großen Galaxien sind von kleineren Galaxien umgeben, die um sie kreisen, sogenannten "Satellitengalaxien". Bei der Milchstraße sind dies beispielsweise die Magellansche Wolken und andere, kleinere und wenig bekanntere Galaxien (wie beispielsweise der sogennante "Sagittarius-Zwerg"). Computersimulationen zur Strukturbildung im Universum sagen die Existenz solcher Satelliten auch voraus - aber das Problem ist, dass sie eine sehr viel größere Anzahl vorhersagen, als beobachtet wird! (für die Milchstraße etwa 50, wohingegen bisher nur etwa 15 gefunden wurden) Genaugenommen wird von diesen Simulationen allerdings nur die Anzahl und Verteilunge sogenannter "Dunkle-Materie-Halos" vorhergesagt, also großer Wolken aus Dunkler Materie, innerhalb derer sich im Allgemeinen Galaxien bilden. Einige weitere Informationen und Erklärungsansätze für dieses Problem finden sich im Artikel Dark Influence, besonders im zweiten Teil, "Missing halos".

Zusammenfassend: obwohl die UT auf großen Skalen (Galaxienhaufen, großräumige Strukturen, das Universum als Ganzes) sehr gut funktioniert, hat sie anscheinend Probleme damit, die Bildung von Strukturen auf kleineren Skalen zufriedenstellend zu erklären. Bisher ist nicht klar, ob diese Probleme verschwinden werden, wenn die Computersimulationen zur Strukturbildung verbessert werden können, oder ob die Modelle dazu selbst falsch sind - oder ob dies gar auf einen grundlegenden Fehler der UT hindeutet. Die meisten Kosmologen vermuten allerdings stark, dass die Lösung bei ersterem oder zweiterem liegt.

h) Arp

Halton Arp ist ein recht bekanntet "Dissident" in der Kosmologie. Sein Hauptargument gegen die UT ist, dass (seiner Ansicht nach) viele Rotverschiebungs-Messungen an fernen Quasaren und Galaxien der traditionellen Interpretation der Rotverschiebung als ein Entfernungmaß widersprichen. Gäbe es aber keinen konsistenten Zusamnmenhang zwischen Rotverschiebung und Entfernung, so wäre die UT aber offensichtlich widerlegt.

Arp weist darauf hin, dass Bilder von vielen Galaxienpaaren, oder Gruppierungen einer Galaxie mit einem Quasar, darauf hinzudeuten scheinen, dass die beiden miteinander verbunden sind - selbst wenn sie stark verschiedene Rotverschiebungen aufweisen und dementsprechend eigentlich riesige Entfernungen voneinander haben müssten. Beispielsweise kann es so aussehen, als ob ein Spiralarm einer Galaxis sich bis zu einem Quasar erstreckt oder gar von diesem angezogen wird, und es ist sogar ein Beispiel bekannt, wo ein Quasar innerhalb einer Galaxis zu liegen scheint (siehe Discovery By UCSD Astronomers Poses A Cosmic Puzzle: Can A 'Distant' Quasar Lie Within A Nearby Galaxy?). Arp hat sogar einen ganzen "Katalog diskordanter Rotverschiebungs-Gruppierungen" veröffentlich.

Er wird in seinen Ideen auch von einigen anderen Astronomen unterstützt, beispielsweise Gregory und Margaret Burbidge. Aber die meisten Astronomen lehnen seine Behauptungen ab und weisen darauf hin, dass all seine Beobachtungen auch durch reinen Zufall erklärbar sind: wenn man nur genügend Galaxien und Quasare untersucht, wird man offensichtlich zumindest einige finden, die nahe beieinander zu liegen scheinen. Arp kontert, dass seine Ergebnisse nicht rein zufällig sein können, sondern statistisch signifikant sind - aber die Richtigkeit seiner statistischen Berechnungen wird von den meisten Astronomen bezweifelt.

Vor kurzem wurde außerdem eine Studie zur Verteilung von Quasaren veröffentlicht, die relevant für diese Frage ist (Scranton 2005). Unter Verwendung von Daten aus dem Sloan Digital Sky Survey wurden die Positionen von 200 000 Quasaren mit denen von 13 Millionen Galaxien verglichen. Hätte Arp recht, sollte man erwarten, dass die Verteilung der Quasare stark mit der der Galaxien korreliert ist (das heißt, dass man Quasare oft sehr nahe an normalen Galaxien finden müsste). Wenn Quasare dagegen im Allgemeinen "hinter" normalen, nahen Galaxien liegen, also bei höheren Rotverschiebungen, so sollte nur eine sehr schwache Korrelation auftreten. Außerdem sollte bei den Quasaren, die (scheinbar) dicht bei einer nahen Galaxis liegen (in Wirklichkeit aber weit dahinter), eine Verstärkung ihres Lichtes durch einen Gravitationslinsen-Effekt auftreten. Die Studie zeigte, dass die zweite Möglichkeit in der Tat erfüllt ist, widerspricht also Arps Behauptungen. Siehe dazu auch den Artikel 200,000 Quasars Confirm Einstein's Prediction.

i) Tifft

Auch William Tifft ist unter den Gegner der UT eine sehr bekannte Persönlichkeit. Sein Ruhmesanspruch beruht ebenfalls auf Studien der Rotverschiebung. Im Unterschied zu Arp untersuchte er allerdings nicht Korrelationen zwischen verschiedenen Objekten, sondern behauptete statt dessen, eine Periodizität in den Rotverschiebungen entdeckt zu haben. Das heißt, er sagt, dass Rotverschiebungen nicht irgendwelche Werte haben können, sondern "quantisiert" sind: sie können nur ganzzahlige Vielfache eines bestimmten kleinsten möglichen Wertes sein (siehe dazu beispielsweise den Übersichtsartikel Tifft (1997)). Wäre dies wahr, so würde es offensichtlich große Probleme für die traditionelle Interpretation der Rotverschiebung bedeuten.

Tifft hat viele Anhänger, die meisten davon allerdings keine professionellen Astronomen, darunter auch einige Kreationisten. Beispielsweise finden sich im Artikel The vacuum, light speed, and the redshift im Abschnitt "The redshift goes in jumps" eine ausführliche Beschreibung der Beobachtungen Tiffts und einige Literaturverweise.

Aber bereits diese Beschreibung wirft Zweifel über Tiffts Ergebnisse auf. Es wird berichtet, dass Tifft ursprünglich eine Quantisierung der Geschwindigkeiten mit einem Wert von 72,46 Kilometern pro Sekunde gefunden hat. Weitere Beobachtungen reduzierten diesen Wert auf 36,2 Kilometer pro Sekunde, dann 8,05, und schließlich 2,68. Beachten Sie, dass eine Quantisierung der Geschwindigkeiten dieser Größenordnung einer Quantisierung der Rotverschiebung mit einer Größenordnung von 1 zu 10000 entspricht! (das heißt, Rotverschiebungen sollten nur in "Sprüngen" der Größe 0,00001 auftreten) Sowohl die Tatsache, dass dies eine sehr kleine Zahl ist (verglichen mit der Empfindlichkeiten tatsächlicher Rotverschiebungs-Messungen, als auch dass die Zahl mit fortgesetzten Beobachtungen immer kleiner geworden ist, weisen stark darauf hin, dass dies nicht ein wirklicher physikalischer Effekt ist, sondern letztlich nur auf ungenügenden Genauigkeiten der Messungen beruht. Außerdem sollte man beachten, dass nur eine relativ kleine Datensammlung benutzt wurde, was zu statistischen "Auswahlfehlern" führen kann.

Ein weiteres Gegenargument besteht darin, dass man eine gewisse "Quantisierung" sogar erwarten sollte, wenn man die großräumige Struktur des Universums berücksichtigt. Das Universum enthält "Große Mauern" aus Galaxien, Galaxiensuperhaufen, die an den Grenzen "Großer Leeren" liegen, die Durchmesser von mehreren hundert Millionen Lichtjahren haben können. Wenn man in irgendeine Richtung schaut, wird man also bei bestimmten Entfernungen Anhäufungen von Galaxien beobachten, bei anderen Entfernungen praktisch gar keine. Offensichtlich ergibt sich so eine gewisse Periodizität bzw. "Quantisierung" der beobachteten Rotverschiebungen.

Eine von anderen Astronomen durchgeführte Studie, welche große Datenmengen aus dem 2dF galaxy survey benutzte, fand keinerlei Belege für Periodizitäten der Rotverschiebung in der von Tifft behaupteten Größenordnung (Hawkins 2002). Anhänger von Tifft wandten ein, dass diese Studie nur Quasare untersuchte statt (nahe) Galaxien, aber dieser Einwand wirkt ein wenig seltsam - wenn Rotverschiebungen quantisiert sind, sollte man schließlich erwarten, dass sie dies überall sind, nicht nur in unserer "Nachbarschaft".

4) Alternative kosmologische Modelle

Zuallererst sollte hier betont werden, dass (nach Wissen des Autors) kein Modell existiert, dass Beobachtungen erklären kann, welche die UT unterstützen (siehe Kapitel 2). Alle alternativen Modelle sprechen nur eine beschränkte Untermenge der Daten an und ignorieren den Rest entweder komplett, oder argumentieren, dass sie diesen nicht berücksichtigen müssen (beispielsweise indem behauptet wird, dass die anderen Effekte nicht wirklich kosmologischen Ursprungs sind, sondern von einer lokalen Quelle herrühren, und daher von einem kosmologischen Modell nicht erklärt werden müssten).

Dieses Kapitel bespricht zwei (bzw. drei) alternative Modelle, die von ernstzunehmenden Astronomen vorgeschlagen wurden, und geht anschließend auch noch auf zwei weitere weitverbreitete Alternativen ein, die allerdings von professionellen Astronomen nicht ernst genommen werden. Die englische Version dieses FAQs enthält außerdem zwei von Kreationisten aufgestellte Modelle; da sie im deutschsprachigen Raum kaum relevant sind, wurden diese beiden hier allerdings ausgelassen.

Es wird nicht versucht, auf jeden der Vorschläge detaillierte Gegenargumente zu bringen; die Modelle werden nur kurz beschrieben, einige Argumente gegen sie werden erwähnt, und es werden Literaturverweise auf Dokumente gegeben, welche sie tiefergehend untersuchen.

a) "Steady state" und "Quasi-Steady state"

Diese beiden sind bzw. waren voll ausgearbeitete kosmologische Modelle, welche einen großen Teil der kosmologischen Daten zu erklären versuchten und (zumindest ersteres) auch zeitweise von vielen Astronomen akzeptiert wurden - aber schlußendlich versagt haben (zumindest laut der Meinung der Mehrheit der Kosmologen).

Im Jahre 1948, erfanden H. Bondi, T. Gold, und F. Hoyle das "Steady state"-Modell, welches davon ausging, dass das kosmologische Prinzip nicht nur räumlich, sondern auch zeitlich gilt. Mit anderen Worten: Das Universum sah immer so aus und wird immer so aussehen, wie es heutzutage aussieht. Da sich das Universum aber ausdehnt (Bondi, Gold und Hoyle akzeptierten die dafür sprechenden Beobachtungen), folgt, dass ständig irgendwie neue Materie entstehen muss (anderenfalls würde ja die Dichte zeitlich abnehmen, und das Universum könnte nicht zu jeder Zeit gleich aussehen). Weitere Schlussfolgerungen des Modells waren, dass die Ausdehnung des Universums exponentiell verläuft, und dass die Dichte genau den kritischen Wert haben muss.

Zu der Zeit, als das Modell erfunden wurde, schien es gut mit den Beobachtungen übereinzustimmen, wohingegen die konventionelle UT damals Probleme hatte. Weitere Beobachtungen zeigten aber mehr und mehr Ungereimheiten mit den Vorhersagen des "Steady state"-Modells, stimmten dagegen mit der konventionellen UT überein. Zunächst waren dies die Vorhersagen über die Häufigkeiten der leichten Elemente ; der Todesstoß kam dann mit der Entdeckung der KMHS).

Nichtsdestotrotz gab Hoyle das "Steady state"-Modell nicht komplett auf, sondern entwickelte (zusammen mit G. Burbidge and J. V. Narlikar) eine Erweiterung, das sogenannte "Quasi-Steady state"-Modell (Hoyle 1993). In diesem hatte das Universum schon immer existiert, macht aber Pulsationen durch, wechselt also zwischen in sich zusammen fallen und sich ausdehnen ab. Der "Rückprall" ab Ende jedes Zusammenfalls wird durch ein hypothetisches Feld mit negativer Energiedichte verursacht, ähnlich der Dunklen Energie in der Standard-Kosmologie. Dieses neue Modell erklärt tatsächlich viele Beobachtungen, bei denen das alte, komplett statische Modell versagte. Aber dennoch gibt es immer noch viele Beobachtungen, die ihm widersprechen, beispielsweise die Daten, die auf eine beschleunigte Ausdehnung hindeuten.

Weitere Details zu beiden Modellen finden sich auf Ned Wrights Seite Errors in the Steady State and Quasi-SS Models.

b) MOND

Diese Abkürzung steht für "Modification Of Newtonian Dynamics", das heißt eine Abänderung der Newtonschen Gesetze, im speziellen des Gravitationsgesetze. Dieses Modell ist ein Versuch, verschiedene Beobachtungen zu erklären, welche laut der Standard-UT die Existenz Dunkler Materie zeigen.

Im Jahre 1983 von Milgrom vorgeschlagen (Milgrom 1983), sagt MOND im Wesentlichen, dass Newtons Gravitationsgesetz für große Entfernungen (kleine Kräfte bzw. Beschleunigungen) nicht mehr exakt gültig ist, sondern abgeändert werden muss. Mit diesem Ansatz ist es in der Tat möglich, die Rotationskurven von Galaxien quantitativ zu erklären - eine Beobachtung, die normalerweise als eine der Hauptargument für die Existenz Dunkler Materie angesehen wird (siehe Abschnitt 2m).

Allerdings gibt es mehrere Einwände gegen diesen Vorschlag: zunächst scheint es ziemlich ad hoc, ein gut abgesichtertes Naturgesetz einfach so abzuändern. Es scheint naheliegender und "natürlicher" zu sein, zu postulieren, dass es Arten von Materie gibt, die wir nicht beobachten können (Dunkle Materie) - besonders da die Teilchenphysik ja eigentlich sogar vorhersagt, dass solche Materie wahrscheinlich existiert. Außerdem ist es nicht klar, ob es möglich ist, eine relativistische Version von MOND aufzustellen - in Analogie zur ART, die ja die relativistische Version von Newtons Gravitationsgesetz ist. Diese beiden Einwände mögen philosophisch oder metaphysisch erscheinen - aber es gibt auch direkte physikalische Gründe, an MOND zu zweifeln.

Ein Hauptargument ist, dass ja die Rotationskurven von Galaxien bei weitem nicht der einzige Belege für die Existenz der Dunklen Materie sind. Außerdem gibt es noch Bewegungen in Galaxienhaufen, Gravitationslinsen-Effkete, die Ergebnisse von WMAP usw. (siehe Abschnitt 2m), und all diese liefern (in etwa) miteinander konsistente Abschätzungen dazu, wieviel Dunkle Materie es geben sollte. Zur Zeit sieht es nicht so aus, als könne MOND all diese Beobachtungen ebenfalls konsistent erklären (siehe beispielsweise Aguirre 2001 und Sanders 2002).

Im Jahre 2002 fand der Chandra-Satellit sogar einen recht direkten Beleg gegen MOND: Das heiße Gas um die Galaxis NGC 720, welches durch seine Aussendung von Röntgenstrahlung beobachtet werden kann, hat die Form einer ellipsoiden Wolke - woraus folgt, dass das Gravitationspotential dieser Galaxis ebenfalls ellipsoid sein muss. Da die sichtbare Galaxis aber kugelförmig ist, würde MOND für sie ein ebenfalls kugelförmiges Gravitationspotential vorhersagen - wohingegen eine ellipsoide Wolke aus Dunkler Materie um die Galaxis die beobachtete Form der Gaswolke leicht erklären könnte. Ein ähnliches Argument ist, dass man beobachten kann, dass Gravitationskräfte manchmal in Richtungen zeigen, in der keine normale Materie sichtbar ist. Solche Ergebnisse erhält man beispielsweise aus der Untersuchung von Gravitationslinsen; siehe beispielsweise diese Dunkle Materie-Karte, in welcher zu sehen ist, dass die Dunkle Materie weit gleichförmiger verteilt ist als die leuchtende.

Vor kurzem schlug Bekenstein eine neue Theorie vor (im Wesentlichen eine Erweiterung der ART), die einige der Probleme von Milgroms MOND-Modell ausräumen könnte (Bekenstein 2004). Bisher ist allerdings noch nicht klar, inwieweit sie die vorhandenen Beobachtungsdaten erklären kann. Siehe dazu beispielsweise die kurze Diskussion im Beitrag Was Einstein wrong? im Preposterous Universe-Blog.

c) "Müdes Licht"

Unter dem Namen "Tired Light" werden mehrere verschiedene Ideen zusammengefasst, welche die Ausdehnung des Universums als Ursache der Rotverschiebung nicht akzeptieren, sondern sie auf andere Weise zu erklären versuchen. Die verwendeten Ansätze sind sehr unterschiedlich, aber im Wesentlichen versuchen alle zu zeigen, dass Licht "auf natürliche Weise" Energie verliert, wenn es lange Strecken reist.

Im Gegensatz zum "(Quasi-)Steady state"-Modell und MOND geniessen Modelle mit "Müdem Licht" praktisch keinerlei Unterstützung von professionalen Astronomen. Dies liegt vor allem daran, dass es so viele Belege dafür gibt, dass sich das Universum in der Tat ausdehnt, und zwar genau so, wie die UT vorhersagt - und deshalb macht eine alternative Erklärung der Rotverschiebung offensichtlich wenig Sinn und wird schlicht und einfach nicht benötigt. Peebles spricht einige dieser Belege, die "Tired light"-Modelle direkt widerlegen, kurz in seinem Buch zur Kosmologie an, beispielsweise den Tolman-Test). Andere Belege sind die Zeitdilation in den Helligkeitskurven von Supernovae, die abnehmende Temperatur der KMHS usw.

Mehr dazu auch auf Ned Wrights Seite Errors in Tired Light Cosmology .

d) Plasma-Kosmologie

Im Jahre 1991 veröffentliche Eric Lerner das Buch "The Big Bang Never Happened", in dem er angebliche Probleme der Standard-UT anführte und für eine alternative Theorie warb, die auf der Plasma-Physik beruht. Laut jenem Modell ist das Universum unendlich alt und macht periodische Oszillationen durch (ähnlich dem "Quasi-Steady state"-Modell von Hoyle et al., siehe 4a). Die bestimmende Kraft für die Bildung von Galaxien und Galaxienhaufen ist angeblich die elektromagnetische, nicht die Schwerkraft. Schwere Elemente werden in Sternen erzeugt, einige leichte Elemente durch Spallation durch hochenergetische kosmische Strahlung.

Lerners Argumente gegen die UT sind allers andere als überzeugend. Er behauptet beispielsweise, dass derzeitige Ideen zur Strukturbildung (durch die Schwerkraft-Wechselwirkungen zwischen ursprünglich kleinen Dichteschwankungen) die beobachteten großräumigen Strukturen im Universum nicht erklären können, und ignoriert dabei praktischerweise alle die Computersimulationen, die das Gegenteil zeigen (siehe 2f). Er leugnet die Existenz von Dunkler Materie und Dunkler Energie, trotz all den klaren Belegen für sie (siehe 2m und 2n), gibt vor, Dunkle Materie wäre nur erfunden worden, um die UT zu retten (was einfach nicht stimmt, siehe 2m), und behauptet, die Zahlenwerte für die Menge an Dunkler Materie würden sich mit jeder Messung neu ändern (was ebenfalls nicht stimmt - die Abschätzungen sind nun bereits für eine längere Zeit konstant - und konsistent - geblieben; außerdem ignoriert dies die Fehlergrenzen solcher Abschätzungen). Im Speziellen weist er darauf hin, dass bisher kein Experiment auf der Erde direkte Hinweise auf Dunkle Materie gefunden hat, und scheint zu denken, dass dies ein Beleg gegen ihre Existenz ist - wobei er praktischerweise ignoriert, dass die Teilchenbeschleuniger bisher schlicht und einfach noch nicht genügend Energie verfügbar haben, um die wahrscheinlichsten Kandidaten für Dunkle Materie-Teilchen zu erzeugen. Diese Liste könnte man beliebig weiterführen.

Gleichzeitig sind auch Lerners Behauptungen zur Fähigkeit der "Plasma-Kosmologie", die kosmologischen Beobachtungen richtig zu erklären, falsch. Ned Wright hat für viele von Lerners Argumenten Widerlegungen geschrieben; diese können auf der Seite Errors in the "The Big Bang Never Happened" gefunden werden. Teilweise gehen seine Argumente zwar etwas an Lerners Behauptungen vorbei, aber dennoch erhält man genug Informationen, um deutlich zu machen, dass Lerners Argumente schlicht und einfach unbegründet sind. Lerner hat Wrights Kritik zwar beantwortet, aber seine Argumente wurden dabei nicht besser - und er hat einige von Wrights Argumenten dabei ganz einfach ignoriert.

Lerner hat leider auch die schlechte Angewohnheit, wissenschaftliche Veröffentlichungen selbst dann als Beleg für seine Behauptungen anzuführen, wenn sie diesen eigentlich widersprechen - indem er die eigentlichen Aussagen der Artikel so lange verdreht, bis sie zu seinen Behauptungen passen. Ein schönes Beispiel ist der Artikel von Scranton et al. (Scranton (2003)), in welchem durch eine Untersuchung des integrierten Sachs-Wolfe-Effekts (siehe 2l) ein klarer Beleg für die Existenz der Dunklen Energie gefunden wird. Lerner ignoriert dieses (klar herausgestelltes!) Ergebnis des Artikels und behauptet statt dessen, der Artikel würde der UT widersprechen. Das Problem mit dieser Behauptung ist, dass sie eine Halbwahrheit darstellt - der Artikel widerspricht in der Tat der UT, aber nur der alten Version, ohne Dunkle Energie! Dagegen ist er voll und ganz mit dem aktuellen Lambda CDM-Modell konsistent, und liefert sogar einen weiteren Beleg zu dessen Unterstützung. Lerner benutzt diese Taktik, eine Vorhersage der alten UT (ohne Dunkle Energie) mit Beobachtungen zu vergleichen und dann herauszustreichen, dass sie nicht passen (während er ignoriert, dass sie sehr gut zum neuen Modell passen), auch noch an anderen Stellen. Beispielsweise benutzt er für die Berechnung der Größen der großräumigen Leerräume im Universum eine Formel aus einem Artikel, der lange vor der Entdeckung der Dunklen Energie veröffentlicht wurde, und weist dann darauf hin, dass die Vorhersagen dieser Formel nicht mit den Beobachtungen übereinstimmen. Die Frage, ob Lerner dies absichtlich macht oder ganz einfach nicht in der Lage ist, die Veröffentlichungen, die er zitiert, richtig zu verstehen, bleibt offen...

5) Der Ursprung des Universums

Wie mittlerweile klar sein sollte, beschäftigt sich die UT nicht mit dem Ursprung des Universums, sondern mit seiner zeitlichen Entwicklung. Dies wird manchmal als eine Schwachstelle dieser (und anderer) wissenschaftlicher Theorien gesehen: wenn die Wissenschaft den Ursprung nicht erklären kann, warum sollte sie dann mit allem, was danach folgt, richtig liegen? Gerade hier sehen auch viele Kreationisten eine Möglichkeit, um Gott wieder ins Spiel zu bringen.

E stimmt zwar, dass es bisher noch keine allgemein akzeptierte wissenschaftliche Theorie für den Ursprung des Universums gibt - aber dennoch gibt es schon einige vielversprechende Vorschläge, und einige davon können wahrscheinlich bereits in naher Zukunft überprüft werden. Alle beinhalten die Grundidee, dass der Urknall nicht wirklich der Beginn der Zeit war, sondern dass bereits vorher etwas existierte. Diese Ideen sind bisher zwar alle ziemlich spekulativ, aber dennoch verdienen sie der Vollständigkeit halber eine Erwähnung in diesem FAQ.

Die zweite und dritte der obigen Ideen werden ausführlicher im Artikel The Myth of the Beginning of Time in der Zeitschrift Scientific American besprochen. Dieser Artikel betont auch, dass diese Ideen zwar bisher sehr spekulativ sind, aber es nichtsdestotrotz Möglichkeiten gibt, sie tatsächlich zu überprüfen. Alle drei Modelle sagen beispielsweise verschiedene Strukturen für die Schwankungen in der KMHS voraus: die Abhängigkeit der Größe der Schwankungen vom Winkelabstand ist unterschiedlich, und auch die Polarisation der KMHS hängt vom jeweiligen Modell ab. Das "Spiegelbild-Universum"-Modell sagt außerdem voraus, dass die Schwankungsgrößen nicht Gauß-verteilt sein sollten, im Gegensatz zu den anderen beiden Modellen. Die bisher verfügbaren Daten (vor allem von WMAP gemessen) sind noch nicht ausreichend, um eine schlüssige Entscheidung zu treffen, welches (wenn überhaupt eines) dieser drei Modelle letztlich richtig ist. Aber schon in einigen Jahren wird wahrscheinlich der nächste Satellit zur Messung der KMHS gestartet: der Planck-Satellit.

Außer Untersuchungen der KMHS gibt es allerdings auch noch andere Möglichkeiten, diese drei Modelle zu überprüfen: beispielsweise durch Untersuchungen von Gravitationswellen (deren Existenz allerdings leider bisher auch noch rein hypothetisch ist), und Magnetfeldern auf sehr großen Skalen. In den nächsten Jahren wird es vielleicht möglich sein, einige dieser Tests durchzuführen - also wissen wir hoffentlich bald mehr über den tatsächlichen Ursprung unseres Universums.

6) Zusammenfassung und Ausblick

Zusammenfassend: In unserer Zeit wurde nach langen Jahrzehnten der Forschung endlich ein "Standardmodell der Kosmologie" aus der Taufe gehoben - und die nächsten Jahre versprechen Möglichkeiten, dieses Modell weiter zu verfeinern und zu verbessern. Die folgenden anstehenden Beobachtungen, Experimente und Forschungen werden dabei hilfreich sein: Wir gehen interessanten Zeiten entgegen.





Literatur

N. Afshordi, Niayesh, Y.-S. Loh, and M. A. Strauss, Cross-correlation of the cosmic microwave background with the 2MASS galaxy survey: Signatures of dark energy, hot gas, and point sources, Phys. Rev. D 69 (2004) 083524 (astro-ph/0308260)

A. Aguirre, J. Schaye, and E. Quataert, Problems for Modified Newtonian Dynamics in Clusters and the Ly-alpha Forest?, Astrophys. J. 561 (2001) 550 (astro-ph/0105184)

R. A. Alpher and R. Herman, Remarks on the Evolution of an Expanding Universe, Phys. Rev. 75 (1949) 1089

H. C. Arp, Catalogue of discordant redshift associations (Apeiron, 2003)

J. D. Bekenstein, Relativistic gravitation theory for the MOND paradigm, Phys. Rev. D70 (2004) 083509 (astro-ph/0403694)

S. van den Bergh, The Early History of Dark Matter, Publ. Astron. Soc. Pac. 111 (1999) 657 (astro-ph/9904251)

H. Bondi and T. Gold, The Steady-State Theory of the Expanding Universe, Mon. Not. Roy. Astron. Soc. 108 (1948) 252

S. Boughn and R. Crittenden, A correlation between the cosmic microwave background and large-scale structure in the Universe, Nature 427 (2004) 45

A. Cimatti et al., Old Galaxies in the Young Universe, Nature 430 (2004) 184 (astro-ph/0407131)

P. Coles, Cosmology: A Very Short Introduction (Oxford University Press, 2001)

S. Colombi, S. Dodelson, and L. M. Widrow, Large-Scale Structure tests of Warm Dark Matter, Astrophys. J. 458 (1996) 1 (astro-ph/9505029)

W. L. Craig and Q. Smith, Theism, Atheism, and Big Bang Cosmology (Oxford University Press, 1995)

N. Dauphas, The U/Th production ratio and the age of the Milky Way from meteorites and Galactic halo stars, Nature 435 (2005) 1203

S. M. Faber and J. S. Gallagher, Masses and mass-to-light ratios of galaxies, Ann. Rev. Astron. Astrophys. 17 (1979) 135

A. C. Fabian, P. A. Thomas, R. E. White III, and S. M. Fall, A lower limit to the binding mass of early-type galaxies, Mon. Not. Roy. Astron. Soc. 221 (1986) 1049

P. G. Ferreira, The cosmic microwave background, Physics World (April 2003) 27

D. J. Fixsen et al., The Cosmic Microwave Background Spectrum from the Full COBE FIRAS Data Set, Astrophys. J. 473 (1996) 576 (astro-ph/9605054)

H. Fritzsch: The Creation of Matter: The Universe from Beginning to End (Basic Books, 1984)

G. Goldhaber et al., Timescale Stretch Parameterization of Type Ia Supernova B-band Light Curves, Astrophys. J. 558 (2001) 359 (astro-ph/0104382)

A. H. Guth, Inflationary universe: A possible solution to the horizon and flatness problems, Phys. Rev. D 23 (1981) 347

B. Hansen et al., Hubble Space Telescope observations of the white dwarf cooling sequence of M4, Astrophys. J. Suppl. Ser. 155 (2004) 551 (astro-ph/0401443)

E. Harrison, Cosmology : The Science of the Universe (Cambridge University Press, 2000)

E. Hawkins, S. J. Maddox, and M. R. Merrifield, No Periodicities in 2dF Redshift Survey Data, Mon. Not. Roy. Astron. Soc. 336 (2002) L13 (astro-ph/0208117)

A. Heavens, B. Panter, R. Jimenez, and J. Dunlop, The star-formation history of the Universe from the stellar populations of nearby galaxies, Nature 428 (2004) 625 (astro-ph/0403293)

F. Hoyle, A New Model for the Expanding Universe, Mon. Not. Roy. Astron. Soc. 108 (1948) 372

F. Hoyle, G. Burbidge, and J. V. Narlikar, A quasi-steady state cosmological model with creation of matter, Astrophys. J. 410 (1993) 437

G. Imbriani et al., The bottleneck of the CNO burning and the age of the Globular Clusters, Astr. and Astrophysics 420 (2004) 625 (astro-ph/0403071)

Y. Izotov, T. X. Thuan, and V. A. Lipovetsky, The Primordial Helium Abundance: Systematic Effects and a New Determination, Astrophys. J. Suppl. 108 (1997) 1

A. Jenkins et al., The Virgo consortium: simulations of dark matter and galaxy clustering, in: Dark and Visible Matter in Galaxies. ASP Conference Series 11 (1997) 348 (ed. Massimo Persic and Paolo Salucci)

R. Jimenez, J. MacDonald, J. S. Dunlop, P. Padoan, and J. A. Peacock, Synthetic stellar populations: single stellar populations, stellar interior models and primordial protogalaxies, Mon. Not. Roy. Astron. Soc. 349 (2004) 240 (astro-ph/0402271)

R. Kippenhahn: Kosmologie für die Westentasche (Piper, 2003)

R. P. Kirshner: The Extravagant Universe: Exploding Stars, Dark Energy, and the Accelerating Cosmos (Princeton University Press, 2002)

R. A. Knop et al., New Constraints on Omega_M, Omega_Lambda, and w from an Independent Set of Eleven High-Redshift Supernovae Observed with HST, Astrophys.J. 598 (2003) 102 (astro-ph/0309368)

E. W. Kolb and M. S. Turner: The early universe (Perseus Books Group, 1993)

L. M. Krauss and B. Chaboyer, Age estimates of globular clusters in the Milky Way: constraints on cosmology, Science 299 (2003) 65

B. Leibundgut et al., Time Dilation in the Light Curve of the Distant Type Ia Supernova SN 1995K, Astrophys. J. 466 (1996) L21 (astro-ph/9605134)

E. Lerner, The Big Bang Never Happened (Random House, 1991)

A. D. Linde, Chaotic inflation, Phys. Lett. B 129 (1983) 177

M. Livio: The Accelerating Universe: Infinite Expansion, the Cosmological Constant, and the Beauty of the Cosmos (Wiley, 2000)

L. M. Lubin and A. Sandage, The Tolman Surface Brightness Test for the Reality of the Expansion; part I: Astron. J. 121 (2001) 227 (astro-ph/0102213); part II: Astron. J. 121 (2001) 2289 (astro-ph/0102214); part III: Astron. J. 122 (2001) 1071 (astro-ph/0106563); part IV: Astron. J. 122 (2001) 1084 (astro-ph/0106566)

V. Luridiana, A. Peimbert, M. Peimbert, and M. Cervino, The effect of collisional enhancement of Balmer lines on the determination of the primordial helium abundance, Astrophys. J. 592 (2003) 846 (astro-ph/0304152)

J. C. Mather et al., A preliminary measurement of the cosmic microwave background spectrum by the Cosmic Background Explorer (COBE) satellite, Astrophys. J. 354 (1990) L37

J. C. Mather, D. J. Fixsen, R. A. Shafer, C. Mosier, and D. T. Wilkinson, Calibrator Design for the COBE Far-Infrared Absolute Spectrophotometer, Astrophys. J. 512 (1999) 511 (astro-ph/9810373)

G. J. Mathews, T. Kajino, and T. Shima, Big Bang Nucleosynthesis with a New Neutron Lifetime, Phys. Rev. D71 (2005) 021302 (astro-ph/0408523)

M. Milgrom, A modification of the Newtonian dynamics as a possible alternative to the hidden mass hypothesis, Astrophys. J. 270 (1983) 365; A modification of the Newtonian dynamics - Implications for galaxies, ibid. 371; A Modification of the Newtonian Dynamics - Implications for Galaxy Systems, ibid. 384

C. W. Misner, K. S. Thorne, and J. A. Wheeler: Gravitation (W. H. Freeman, 1973)

L. Nolan, J. S. Dunlop, R. Jimenez, A. F. Heavens, F stars, metallicity, and the ages of red galaxies at z > 1, Mon. Not. Roy. Astron. Soc. 341 (2003) 464 (astro-ph/0103450)

M. R. Nolta, E. L. Wright et al., First Year Wilkinson Microwave Anisotropy Probe Observations: Dark Energy Induced Correlation with Radio Sources, Astrophys. Journal 608 (2004) 10 (astro-ph/0305097)

K. A. Olive and G. Steigman, On the abundance of primordial helium, Astrophys. J. Suppl. 97 (1995) 49 (astro-ph/9405022)

J. H. Oort, Astrophys. J. 91 (1940) 273

L. Pasquini, P. Bonifacio, S. Randich, D. Galli, and R.G. Gratton, Beryllium in turnoff stars of NGC6397: early Galaxy spallation, cosmochronology and cluster formation, Astr. and Astrophysics 426 (2004) 651 (astro-ph/0407524)

J. A. Peacock: Cosmological Physics (Cambridge University Press, 1999)

P. J. E. Peebles: Principles of Physical Cosmology (Princeton University Press, 1993)

S. Perlmutter et al., Measurements of Omega and Lambda from 42 High-Redshift Supernovae, Astrophys. J. 517 (1999) 565 (astro-ph/9812133)

F. Prada et al., Observing the dark matter density profile of isolated galaxies, Astrophys. J. 598 (2003) 260 (astro-ph/0301360)

A. G. Riess, W. Press, and R. Kirshner, A Precise Distance Indicator: Type Ia Supernova Multicolor Light Curve Shapes, Astrophys. J. 473 (1996) 88 (astro-ph/9604143)

A. G. Riess et al., Time Dilation from Spectral Feature Age Measurements of Type Ia Supernovae, Astron. J. 114 (1997) 722 (astro-ph/9707260)

A. G. Riess et al., Observational Evidence from Supernovae for an Accelerating Universe and a Cosmological Constant, Astron. J. 116 (1998) 1009-1038 (astro-ph/9805201)

A. G. Riess et al., Type Ia Supernova Discoveries at z>1 From the Hubble Space Telescope: Evidence for Past Deceleration and Constraints on Dark Energy Evolution, Astrophys. J. 607 (2004) 665 (astro-ph/0402512)

A. D. Sakharov. Pis'ma Z. Eksp. Teor. Fiz. 5 (1967) 32; English Translation: JETP Lett. 5 (1967) 24

R. H. Sanders, Clusters of galaxies with modified Newtonian dynamics, Mon. Not. Roy. Astron. Soc. 342 (2003) 901 (astro-ph/0212293)

R. Scranton et al., Physical Evidence for Dark Energy (astro-ph/0307335)

R. Scranton et al., Detection of Cosmic Magnification with the Sloan Digital Sky Survey, to be published in the Astrophys. J. (astro-ph/0504510)

R. Srianand, P. Petitjean, and C. Ledoux, The cosmic microwave background radiation temperature at a redshift of 2.34, Nature 408 (2000) 931 (astro-ph/0012222)

W. G. Tifft, Redshift Quantization in the Cosmic Background Rest Frame, J. Astrophys. Astr. 18 (1997) 415

R. C. Tolman, Proc. N. A. S. 16 (1930) 511

R. C. Tolman, Relativity, Thermodynamics, and Cosmology (Clarendon Press, 1934)

J. L. Tonry et al., Cosmological Results from High-z Supernovae, Astrophys. J. 594 (2003) 1 (astro-ph/0305008)

E. P. Tryon, Is the Universe a Vacuum Fluctuation?, Nature 246 (1973) 396

S. Turck-Chieze et al., Surprising Sun, Phys. Rev. Lett. 93 (2004) 211102 (astro-ph/0407176)

R. M. Wald: General Relativity (University Of Chicago Press, 1984)

L. Wang, G. Goldhaber, G. Aldering, and S. Perlmutter, Multicolor Light Curves of Type Ia Supernovae on the Color-Magnitude Diagram: a Novel Step Toward More Precise Distance and Extinction Estimates, Astrophys. J. 590 (2003) 944-970 (astro-ph/0302341)

S. Weinberg: The First Three Minutes: A Modern View of the Origin of the Universe (2nd edition, Basic Books, 1993)

S. D. M. White, Large-Scale Structure at High Redshift, in The early Universe with the VLT (ed. J. Bergeron), Springer (1997) 219

E. L. Wright et al., Interpretation of the cosmic microwave background radiation anisotropy detected by the COBE Differential Microwave Radiometer, Astrophys. J. 396 (1992) L13

F. Zwicky, Helv. Phys. Acta 6 (1933) 110



Danksagung

Ich danke Ned Wright, Ulf Torkelsson, Stuart A. Weinstein, Martin Hutton, Edward Cooper, Jon Fleming und Mark Isaak für wertvolle Kritik und Vorschläge. Besonderer Dank gilt auch Ryan Scranton, der mir beim Entwurf der englischen Version eine große Hilfe war.