Przeskocz do treści

Delta mi!

Loading

Lekkość bytów kosmologicznych

Krzysztof Turzyński

o artykule ...

  • Publikacja w Delcie: styczeń 2016
  • Publikacja elektroniczna: 01-01-2016
  • Wersja do druku [application/pdf]: (368 KB)

Z czego składa się wszechświat? Jeżeli wierzyć temu, co setki kosmologów piszą w najpoważniejszych czasopismach naukowych, znana nam materia tzw. barionowa odpowiada za zaledwie 5% gęstości energii we wszechświecie, a pozostała część to tzw. ciemna materia i ciemna energia. O tych tajemniczych substancjach niewiele da się obecnie powiedzieć, poza tym, że ciemna materia zachowuje się jak pył niewidzialnych, masywnych cząstek, ciemna energia zaś ma pewne unikalne, ale bardzo konkretne własności, które powodują przyspieszone rozszerzanie się wszechświata.

obrazek

Powyższe stwierdzenia są dla wielu przejawem triumfu myśli ludzkiej przejawiającej się w wydzieraniu przyrodzie jej tajemnic dzięki postępowi technik obserwacyjnych połączonemu z bardzo wnikliwą analizą teoretyczną tych obserwacji. Są też i tacy, którzy sądzą, że odważne twierdzenia współczesnej kosmologii są zwykłą hucpą. Jak osądzić, gdzie leży prawda i czy środowisko naukowców jest w stanie wycofywać się ze swoich twierdzeń, jeśli te okazują się błędne lub nie dają się należycie uzasadnić? Przyjrzyjmy się tym kwestiom na przykładzie ciemnej materii.

Klasyczny argument na rzecz istnienia ciemnej materii pochodzi z badania krzywych rotacji galaktyk i wynika z obserwacji poczynionych przez Verę Rubin od początku lat sześćdziesiątych XX wieku. Sądząc po natężeniu emitowanego światła, masa typowej galaktyki spiralnej skupiona jest w jej centrum, można więc w przybliżeniu traktować ruch obiegającej to centrum gwiazdy jako wywoływany przez pojedynczą centralną masę. Jeśliby więc siła grawitacyjna owej masy M działająca na gwiazdę o masie |m w odległości r od centrum wyrażała się wzorem Newtona Fg = GMm/r2 i stanowiła zarazem siłę dośrodkową powodującą ruch gwiazdy z prędkością v | po okręgu, |F = mv2/r, r to prędkość v powinna być odwrotnie proporcjonalna do pierwiastka z odległości r. Tak nie jest - obserwowana zależność v(r) wydaje się dążyć do stałych, ale niezerowych wartości przy wzroście r. Aby to wyjaśnić, można założyć istnienie nieświecącej i nieoddziałującej ze światłem materii (zwanej ciemną materią) stanowiącej źródło dodatkowego przyciągania grawitacyjnego i umożliwiającej gwiazdom na szybsze, niżby można oczekiwać, okrążanie centrów galaktyk bez obawy ucieczki w kosmiczną przestrzeń. Idea to nieco szalona, ale jakoś trzeba przecież wyjaśnić obserwowaną zależność |v(r), skoro przez tyle dekad nie udało się znaleźć jakiegoś błędu w obserwacjach i ich interpretacji. Można ewentualnie wymyślić jeszcze jakąś inną szaloną ideę, na przykład taką, że newtonowskie prawo grawitacji nie stosuje się w tak wielkich skalach odległości...

Uwierzeniu w jedną z takich szalonych idei może pomóc fakt, że w latach trzydziestych XX wieku Fritz Zwicky, badając rozkłady prędkości galaktyk w gromadzie galaktyk w gwiazdozbiorze Warkocza Bereniki, również zauważył, że nie są one zgodne z rozkładem świecącej materii. Obecnie można niekiedy dzięki zjawisku soczewkowania grawitacyjnego ocenić rozkład masy w gromadzie galaktyk niezależnie od rozkładu natężenia światła. Najbardziej znanym przykładem jest gromada 1E0657-558 w gwiazdozbiorze Kila, zwana Pociskiem. Powstała ona w wyniku zderzenia dwóch gromad galaktyk; ów kosmiczny kataklizm znacznie spowolnił materię świecącą (przede wszystkim gaz emitujący promieniowanie X), ale nie ciemną materię, która oddziałuje przede wszystkim grawitacyjnie, i obserwowane rozkłady obu rodzajów materii wykazują wyraźnie rozsunięcie w przestrzeni. Te same obserwacje próbowano także interpretować przy użyciu modyfikacji oddziaływań grawitacyjnych, ale próby te nie wydają się prowadzić w tak prosty sposób do konkluzji jak hipoteza istnienia ciemnej materii. Tym bardziej że astronomowie w ciągu ostatniej dekady wzbogacili swą kolekcję zderzających się gromad galaktyk o jeszcze kilka, może nieco mniej spektakularnych obiektów...

Ciemna materia musi być rozłożona we wszechświecie w sposób niejednorodny, toteż szacowanie jej średniej gęstości w obserwowalnym wszechświecie jest zadaniem trudnym. Nie powinno zatem dziwić, że najdokładniejsze oszacowania gęstości ciemnej materii pochodzą z zupełnie innego źródła. Jest nim mikrofalowe promieniowanie tła, uwolnione w procesie rekombinacji przed miliardami lat - w chwili, gdy wszechświat stał się nazbyt chłodny, by fotony mogły jonizować pierwotne atomy, ale wciąż jeszcze był w miarę jednorodny. Od tego czasu fotony owe przemierzają wszechświat w zasadzie bez zakłóceń, zwiększając jedynie swą długość fali w miarę rozszerzania się wszechświata, i z tego powodu stanowią bezcenne źródło wiedzy o wczesnych etapach jego rozwoju. Bardzo ważne jest przy tym, że mikrofalowe promieniowanie tła jest z bardzo dobrym przybliżeniem izotropowe (identyczne dochodzi ze wszystkich kierunków), jego widmo jest najdoskonalszą realizacją widma ciała doskonale czarnego, jaką kiedykolwiek znała fizyka, a drobne niejednorodności jego natężenia, na poziomie 1:100000, mają bardzo ciekawe własności statystyczne.

Zanim przejdziemy do ich omówienia, musimy zastanowić się nad kilkoma kwestiami technicznymi związanymi z owymi kosmicznymi fluktuacjami. Po pierwsze, zaburzenia takie możemy "składać" z zaburzeń o kształcie sinusoidalnym - dla odpowiednio małych amplitud tych zaburzeń we wczesnym wszechświecie każde z nich będzie ewoluowało niezależnie od pozostałych. Po drugie, większa gęstość (i temperatura) materii jest związana z silniejszą grawitacją. Zgodnie z ogólną teorią względności fotony wyemitowane z miejsc gęstszych są bardziej energetyczne, ale muszą stracić więcej energii na pokonanie silniejszej grawitacji; szczegółowy rachunek pokazuje, że pierwszy z wymienionych efektów jest silniejszy. Różnice w natężeniu (i temperaturze) mikrofalowego promieniowania tła dochodzącego z różnych kierunków pozwalają zatem na określenie różnic gęstości obszarów wszechświata, z których fotony te zostały wyemitowane. Wreszcie, w "normalnie" rozszerzającym się wszechświecie maksymalny rozmiar obszaru powiązanego przyczynowo rośnie szybciej niż rozmiary sinusoidalnych zaburzeń rozciągane wskutek rozszerzania się wszechświata. Oznacza to, że dane sinusoidalne zaburzenie o określonej długości ma najpierw długość przekraczającą rozmiar obszaru powiązanego przyczynowo; skoro odległe części tego zaburzenia początkowo "nic o sobie nie wiedzą", to dopiero w pewnym momencie ewolucji wszechświata, odpowiadającym odwróceniu powyższej nierówności, zaburzenie takie może zacząć ewoluować.

obrazek

Rys. 1 Układ mechaniczny odpowiadający zaburzeniom kosmologicznym. Ciężkie kulki to materia barionowa, sprężynki to fotony, zaś "dołek", w którym się one znajdują, to "potencjał" grawitacyjny. Bariony dążą do skupiania się pod wpływem oddziaływań grawitacyjnych, czemu przeciwstawia się ciśnienie fotonów.

Rys. 1 Układ mechaniczny odpowiadający zaburzeniom kosmologicznym. Ciężkie kulki to materia barionowa, sprężynki to fotony, zaś "dołek", w którym się one znajdują, to "potencjał" grawitacyjny. Bariony dążą do skupiania się pod wpływem oddziaływań grawitacyjnych, czemu przeciwstawia się ciśnienie fotonów.

Pojedyncze zaburzenie sinusoidalne odpowiada zaburzeniu gęstości kilku składników: materii barionowej składającej się przede wszystkim z protonów (równoważące dodatni ładunek protonów elektrony mają około 2000 razy mniejszą masę i możemy je w bilansie masy pominąć), fotonów oraz ewentualnie ciemnej materii - a także odpowiadającego im zaburzenia grawitacyjnego. Ewolucję takiego układu możemy lepiej zrozumieć, korzystając z analogii zaproponowanej przez Wayne'a Hu z Uniwersytetu w Chicago - równania opisujące dynamikę każdego ze składników mają bowiem taką samą postać jak równania ruchu bardzo prostego układu fizycznego przedstawionego na rysunku 1. Pozostaje pytanie, co lub kto zapewnia warunki początkowe dla tych równań - czyli kształt zaburzeń na skalach przekraczających rozmiar obszarów przyczynowo powiązanych. Uchylanie się od odpowiedzi na to pytanie wydaje się mało ambitne intelektualnie, zwłaszcza że istnieje klasa teorii, które pozwalają podać pewien zakres przewidywań dla warunków początkowych. Są to teorie inflacji z wolnym toczeniem, zaproponowane ponad trzy dekady temu przez Andreia Lindego (notabene różne od zarzuconych obecnie z powodu niezgodności z doświadczeniem pionierskich koncepcji Alana Gutha). W teoriach tych pierwotne zaburzenia są odpowiednio rozciągniętymi wskutek przyspieszonego rozszerzania się bardzo wczesnego wszechświata fluktuacjami kwantowymi; kształt wszystkich pierwotnych zaburzeń opisywany jest prostą funkcją zależną od kilku stałych liczbowych.

obrazek

Rys. 2 Ewolucja zaburzenia, dla którego rekombinacja zachodzi po półokresie oscylacji gęstości. Zaburzenia o określonym rozmiarze możemy zobaczyć w różnych odległościach kątowych w zależności od krzywizny wszechświata określającej tor fotonów w przestrzeni.

Rys. 2 Ewolucja zaburzenia, dla którego rekombinacja zachodzi po półokresie oscylacji gęstości. Zaburzenia o określonym rozmiarze możemy zobaczyć w różnych odległościach kątowych w zależności od krzywizny wszechświata określającej tor fotonów w przestrzeni.

Jedno zaburzenie ma szczególnie prostą, ale też ważną historię. Jego ewolucja zaczyna się w dobrze określonym momencie, gdy jego rozmiar zrównuje się z rozmiarem obszaru przyczynowo powiązanego. Od tej pory powinny zachodzić oscylacje gęstości barionów i fotonów - gdyby nie fakt, że po jednym półokresie takich oscylacji, w chwili odpowiadającej maksymalnemu ściśnięciu barionów w jednych miejscach zaburzenia i maksymalnemu rozrzedzeniu w drugich, doszło do rekombinacji i wyemitowania fotonów mikrofalowego promieniowania tła. W efekcie dla pewnego określonego rozmiaru zaburzenia powinno się dać zaobserwować w mikrofalowym promieniowaniu tła wyraźną korelację - miejsca cieplejsze powinny być odseparowane o określony kąt od innych cieplejszych miejsc (a zimniejsze od zimniejszych). Kształt ramion tego kąta odpowiada biegowi promieni świetlnych w rozszerzającym się wszechświecie - okazuje się, że pozwala to na bardzo dokładne oszacowanie, czy wszechświat odpowiada trójwymiarowej (płaskiej) przestrzeni euklidesowej, czy też należy go modelować jako przestrzeń trójwymiarową o dodatniej lub ujemnej krzywiźnie.

Równie istotne są zaburzenia, dla których rekombinacja zachodzi po jednym i po półtora okresu oscylacji. W przypadku tych pierwszych, im więcej barionów, tym silniejszemu ściśnięciu i słabszemu późniejszemu rozrzedzeniu one ulegają, co daje się zaobserwować jako zmniejszenia antykorelacji zaburzeń na skalach o połowę mniejszych niż dyskutowane poprzednio. Te drugie odpowiadają zaś ponownemu maksymalnemu ściśnięciu barionów, którego skuteczność zależy od tego, czy "potencjał" grawitacyjny ulegnie zanikowi od czasu pierwszego ściśnięcia (tak byłoby, gdyby rozrzedzone pół okresu wcześniej bariony i fotony stanowiły główne źródło grawitacji), czy też nie (jeśli źródłem grawitacji jest przede wszystkim ciemna materia, nieoddziałująca z fotonami, a więc nieoscylująca); zanik "potencjału" grawitacyjnego usuwa przeszkody w rozrzedzaniu się barionów i pozwala na zwiększenie amplitudy omawianych oscylacji w porównaniu z poprzednimi.

obrazek

ESA

Rys. 3 Korelacje i antykorelacje zaburzeń temperatury mikrofalowego promieniowania tła obserwowane przez satelitę Planck.

ESA

Rys. 3 Korelacje i antykorelacje zaburzeń temperatury mikrofalowego promieniowania tła obserwowane przez satelitę Planck.

Nie samym jednak mikrofalowym promieniowaniem tła żyją kosmologowie. Wspomniane wyżej pierwotne zaburzenia gęstości stanowią nie tylko źródło jego nieizotropowości, ale także zarodzie, z których wskutek przyciągania grawitacyjnego powstają miliardy lat później galaktyki i gromady galaktyk. Oznacza to, że rozkład takich struktur we wszechświecie powinien być ściśle związany z własnościami mikrofalowego promieniowania tła. Symulacje formowania się struktur kosmicznych prowadzone przy użyciu superkomputerów wskazują, że tak właśnie jest i, co więcej, że proces ten jest czuły na szczegóły ewolucji wszechświata takie jak to, czy wszechświat rozszerza się z przyspieszeniem, czy z opóźnieniem, albo jaki procent materii we wszechświecie stanowi ciemna materia.

Powyższe rozważania pozwalają, moim zdaniem, na wyciągnięcie trzech ostrożnie optymistycznych wniosków. Po pierwsze, podobnie jak w innych spotykanych w fizyce sytuacjach (np. w doświadczeniach przy akceleratorze LHC) nie sposób oddzielić aspektów teoretycznych i empirycznych badań wszechświata (dane obserwacyjne pozwalają na testowanie teorii, ale muszą być zarazem interpretowane w ramach tej teorii, a nie w sposób od niej niezależny). Nie jest to jednak sytuacja beznadziejna, gdyż sieć wzajemnych powiązań między różnymi aspektami ewolucji wszechświata jest tak gęsta, że niesprzeczność schematu teoretycznego z danymi obserwacyjnymi stanowi ważny argument za jego poprawnością. Po drugie, schemat ten jest wyjątkowo oszczędny w proponowaniu nowych bytów - potrzebuje zaledwie jednego rodzaju w miarę stabilnych cząstek tworzących ciemną materię, jednego pola odpowiedzialnego za inflację i zadawane przez nią warunki początkowe dla zaburzeń gęstości oraz jednej stałej (kosmologicznej). Można porównać te propozycje z żądaniami fizyki cząstek elementarnych sprzed półwiecza (nowe pole Higgsa pozwalające na tzw. spontaniczne naruszenie symetrii cechowania, nowe cząstki - kwarki - budujące hadrony), które doprowadziły do rewolucji w postrzeganiu fundamentalnych składników materii i wysypu Nagród Nobla. Po trzecie zaś, mimo nieustających wysiłków fizyków teoretycznych, jak dotąd nie pojawiła się żadna inna idea, która zapewniałaby przy użyciu podobnie skromnych środków spójny schemat teoretyczny pozwalający na interpretację i przewidywanie równie szerokiej klasy zjawisk.