
Zapomnijcie o patrzeniu w przeszłość przez soczewkę, czas na renderowanie przyszłości. Stworzenie potężnych wirtualnych wszechświatów to jedyny sposób, by nadążyć za takimi projektami jak teleskop Euclid czy obserwatorium Very Rubin.
Międzynarodowy zespół astrofizyków właśnie otworzył drzwi do jednego z największych zbiorów danych w historii nauki. Ponad 2,5 petabajta symulacji kosmologicznych jest od dziś dostępna za darmo dla wszystkich naukowca na świecie. To objętość odpowiadająca mniej więcej pół milionowi filmów HD. Są to dane z projektu FLAMINGO: zestawu wirtualnych wszechświatów, w których materia ewoluuje od Wielkiego Wybuchu po współczesność, tworząc galaktyki, gromady galaktyk i rozległą sieć kosmiczną. Każdy, kto ma internet i pomysł badawczy, może teraz eksplorować cyfrową kopię kosmosu.
50 mln godzin obliczeń, jeden superkomputer i fizyka, która nie idzie na skróty
Symulacje FLAMINGO zostały przeprowadzone na superkomputerze COSMA-8 w Durham w Wielkiej Brytanii, należącym do krajowej infrastruktury obliczeniowej DiRAC. Sama produkcja danych wymagała ponad 50 mln godzin CPU. To odpowiednik jednego procesora pracującego nieprzerwanie przez blisko 6000 lat.
Do obliczeń użyto kodu SWIFT, czyli systemu do symulacji kosmologicznych opracowanego przez zespoły z Leiden i Durham, zoptymalizowanego pod kątem współczesnych architektur procesorowych i zdolnego do efektywnego zarządzania miliardami cząstek jednocześnie.
Zestaw obejmuje 22 symulacje hydrodynamiczne (uwzględniające fizykę zwykłej materii) i 16 symulacji czysto grawitacyjnych (modelujących wyłącznie ciemną materię). W tym symulację flagową FLAMINGO-10k z ponad bilionem elementów rozdzielczości. Każda symulacja jest skalibrowana tak, żeby odtwarzać dwie najważniejsze obserwacje: dzisiejszą funkcję masy gwiazdowej galaktyk (ile galaktyk istnieje o danej masie gwiazd) oraz frakcję gazu w gromadach galaktyk w niskim przesunięciu ku czerwieni.
Oprócz tego poszczególne symulacje systematycznie zmieniają parametry: masę galaktyk, frakcje gazu, kosmologię (w tym masy neutrin) i naturę ciemnej materii. To pozwala badaczom testować, jak wrażliwe są obserwowane struktury kosmiczne na zmiany poszczególnych parametrów i identyfikować, które obserwacje najskuteczniej rozróżniają konkurujące modele Wszechświata.
Czym tak adekwatnie jest FLAMINGO?
FLAMINGO to akronim od Full-hydro Large-scale structure simulations with All-sky Mapping for the Interpretation of Next Generation Observations – pełnohydrodynamiczne symulacje wielkoskalowej struktury z mapowaniem całego nieba do interpretacji obserwacji nowej generacji. Nazwa jest długa, bo ambicja projektu jest ogromna: stworzyć symulacje na tyle duże i szczegółowe, żeby jednocześnie obejmowały objętości kosmiczne liczące miliardy lat świetlnych i modelowały fizykę powstawania galaktyk wewnątrz tych objętości.
Jest to jeden z najtrudniejszych kompromisów w astrofizyce obliczeniowej. Symulacje, które skupiają się na fizyce galaktyk – chłodzeniu gazu, formowaniu gwiazd, eksplozjach supernowych, akrecji na czarne dziury – wymagają ekstremalnie drobnej rozdzielczości i ogromnych zasobów obliczeniowych. Symulacje kosmologiczne, które muszą obejmować miliardy lat świetlnych, żeby uchwycić statystykę wielkoskalowej struktury, tradycyjnie ograniczają się do grawitacji ciemnej materii, bo dodanie fizyki zwykłej materii wielokrotnie zwiększa koszt obliczeniowy.
FLAMINGO robi jedno i drugie. Jego największa symulacja obejmuje sześcienny fragment Wszechświata o krawędzi 10 mld lat świetlnych, wypełniony 300 mld cząstek rozdzielczości – każda o masie odpowiadającej małej galaktyce. A jednocześnie modeluje chłodzenie radiacyjne gazu, formowanie gwiazd, utratę masy gwiazdowej, wzbogacanie chemiczne, sprzężenie zwrotne od supernowych i aktywnych jąder galaktyk. I symuluje neutrina jako osobne cząstki, a nie jako przybliżenie matematyczne.
Po co w ogóle astronomowie budują cyfrowe wszechświaty, zamiast obserwować prawdziwy?
Obserwacja Wszechświata ma fundamentalne ograniczenie: widzimy go tylko w jednym momencie. Teleskopy, choćby te najlepsze, rejestrują obraz kosmosu takim, jakim jest w chwili, gdy światło dotarło do detektora. Mogą patrzeć daleko w przeszłość, bo światło podróżuje ze skończoną prędkością, ale nie mogą śledzić ewolucji jednego obiektu przez miliardy lat.
Nie da się obserwować, jak konkretna galaktyka formowała się, rosła, zderzała z innymi i zmieniała kształt w ciągu miliardów lat. Można zobaczyć tysiące galaktyk w różnych stadiach rozwoju i próbować z tych migawek ułożyć film, ale to jak próba zrozumienia ludzkiego życia na podstawie zdjęć tłumu ludzi w różnym wieku.
Symulacje kosmologiczne rozwiązują ten problem. Wrzucasz do komputera prawa fizyki, warunki początkowe (odtworzone z promieniowania tła, czyli najstarszego światła we Wszechświecie) i pozwalasz systemowi obliczyć, co się stanie w ciągu 13,8 mld lat. Na wyjściu dostajesz wirtualny wszechświat, w którym materia (zarówno ciemna, jak i zwykła) formuje struktury od najdrobniejszych fluktuacji gęstości po gigantyczne sieci filamentów i węzłów, wzdłuż których układają się galaktyki. Możesz cofnąć się do dowolnego momentu, zbliżyć do dowolnego obiektu, zmienić parametry fizyczne i sprawdzić, co się zmieni.
To nie jest zabawa. To fundamentalne narzędzie współczesnej kosmologii. Bez symulacji nie da się interpretować danych z teleskopów takich jak James Webb, Euclid, Vera C. Rubin czy Planck. Obserwacja mówi, iż tak wygląda Wszechświat. Symulacja odpowiada, iż tak powinien wyglądać, jeżeli nasze teorie są słuszne. Porównanie obu daje odpowiedź na pytanie, czy rozumiemy kosmos, czy łudzimy się, iż rozumiemy.








