Próżnia, (nie)byt skomplikowany. Część 3: Próżnie relatywistyczne

Pozostałe części cyklu

Część 1: Próżnie filozofów i eksperymentatorów
Część 2: Próżnie kosmiczne
Część 4: Próżnie kwantowe

Wszechświat w oparach eteru

Jeśli podsumować wszystkie źródła masy Wszechświata (wliczając te, o których tylko wiemy, że istnieją, ale nie znamy ich natury), jego średnia gęstość wynosi 9,9 · 10–27 kg/m3. Odpowiada to masie 5,9 protonu na metr sześcienny, aczkolwiek materia barionowa – taka jak protony, neutrony i zbudowane z nich jądra atomowe (a zatem materiał, z którego składa się Ziemia i nasze organizmy) – wnosi ok. 5% wkładu w masę całkowitą. Gęstość powietrza w normalnych warunkach na poziomie morza wynosi 1,293 kg/m3, łatwo więc policzyć, że Wszechświat jest średnio 130 kwadrylionów razy rzadszy niż powietrze. Statystycznie rzecz biorąc, Wszechświat stanowi próżnię niemal doskonałą. To że istnieją w nim w ogóle jakiekolwiek struktury, od prostych związków chemicznych po gwiazdy, planety i życie, wynika z lokalnych niejednorodności rozkładu masy. Tu i ówdzie mamy rozrzucone wśród pustki wysepki materii na tyle gęstej, by zapoczątkować procesy samoorganizacji.

Ale czym jest ośrodek, w którym istnieje materia, jeśli sam nie jest materią? W XIX w. przyjmowano zwykle tradycyjne rozwiązanie w duchu Arystotelesa i jego następców. Sądzono mianowicie, że przestrzeń między wszelkimi obiektami materialnymi (nie wyłączając atomów i molekuł) wypełnia w sposób ciągły i jednorodny nieściśliwa substancja zwana eterem. Koncepcja ta pasowała do rozwijanej wówczas teorii oddziaływań elektromagnetycznych – elektrodynamiki. Od lat sześćdziesiątych XIX w., dzięki pracom Jamesa Clerka Maxwella, wiedziano o istnieniu fal elektromagnetycznych i o tym, że światło jest także taką falą, rozchodzącą się w przestrzeni ze skończoną prędkością c wynoszącą około 300 000 km/s. A ponieważ wszystkie znane wcześniej zjawiska falowe miały charakter drgań mechanicznych jakiegoś ośrodka, wydawało się logiczne, że fale elektromagnetyczne należy interpretować jako drgania „eteru światłonośnego”, zwanego też „eterem elektromagnetycznym”.1

Zaskakująca niezmienność

Hipotetyczny eter był substancją nieuchwytną, wymykającą się bezpośrednim obserwacjom. Można jednak było podjąć próby wykrycia efektów ruchu względem eteru. Średnia prędkość orbitalna Ziemi to 29,8 km/s. Jeżeli c jest prędkością rozchodzenia się fal elektromagnetycznych względem eteru, to z punktu widzenia obserwatora na Ziemi (który także porusza się względem eteru) prędkość światła powinna się nieco zmieniać w zależności od kierunku, w którym porusza się światło. Różnice takie miał wykryć przeprowadzony w 1887 r. eksperyment Alberta Michelsona i Edwarda Morleya z użyciem superczułego interferometru, porównującego takie same fale świetlne wysyłane w prostopadłych do siebie kierunkach i odbijane z powrotem w kierunku źródła. Doświadczenie to, wielokrotnie powtarzane i przeprowadzane w różnych wariantach z rosnącą precyzją aż do naszych czasów, przyniosło zaskakujący wynik: pomiar prędkości światła daje identyczny wynik dla każdego obserwatora niezależnie od jego prędkości własnej.

Niezmiennicza stałość prędkości światła wydawała się sprzeczna ze zdrowym rozsądkiem. Aby wyjaśnić rozbieżność między przewidywaniami teorii elektromagnetyzmu a doświadczeniem, w roku 1889 George Francis FitzGerald zasugerował, że ciała poruszające się względem eteru ulegają skróceniu w kierunku ruchu. Trzy lata później Hendrik Lorentz zaproponował ogólniejszy układ transformacji, zgodnie z którym nie tylko długość, ale i upływ czasu miały ulegać zmianie dla obiektów w ruchu (w tym celu Lorentz wprowadził zmienną pomocniczą zwaną „czasem lokalnym”). Dzięki tym zabiegom równania Maxwella pozostawały niezmienne dla każdego obserwatora inercjalnego (poruszającego się swobodnie ze stałą prędkością).

Postulowane zmiany długości i mierzonych odcinków czasu były praktycznie niezauważalne dla prędkości małych w porównaniu z prędkością światła; odgrywały istotną rolę dopiero dla prędkości naprawdę dużych, a zwłaszcza bliskich c. Cały czas było to łatanie teorii eteru za pomocą poprawek wprowadzanych ad hoc. Powstawała w ten sposób dopracowana przez Lorentza i Henriego Poincarégo konstrukcja matematyczna wyjaśniająca, dlaczego eksperymenty nie pozwalają odróżnić układów „w spoczynku” (nieruchomych względem eteru) od poruszających się ze stałą prędkością.2

Ryc. 1.

Einstein odstawia eter

W 1905 r. Albert Einstein poszedł o krok dalej. Skoro dzięki uwzględnieniu transformacji Lorentza eter staje się niewykrywalny, to po diabła w ogóle komu potrzebny taki byt? Działanie transformacji nie zależy od istnienia eteru. Jeśli obserwatorka A porusza się względem obserwatora B (albo, co na jedno wychodzi, obserwator B porusza się względem obserwatorki A), to dokonywane przez nich obserwacje i pomiary odległości oraz czasu dla tych samych zdarzeń będą różne, ale powiązane za pomocą transformacji Lorentza.3 W każdym układzie inercjalnym pomiar prędkości tego samego impulsu światła da ten sam wynik (gwarantują to równania Lorentza), ale nie dotyczy to obiektów poruszających się wolniej niż światło. Inaczej niż w fizyce Galileusza i Newtona, złożenie dwu prędkości w tym samym kierunku nie jest ich sumą, tylko operacją dającą wynik mniejszy niż suma, a w szczególności nieprzekraczający c niezależnie od tego, ile prędkości złożymy.

Brak absolutnego układu odniesienia dotyczy nie tylko wymiarów przestrzennych, ale i czasu. Nie ma na przykład absolutnej równoczesności zdarzeń. Zdarzenia rozdzielone w przestrzeni, a obserwowane jako równoczesne przez A, nie będą równoczesne z punktu widzenia B. Czas nie jest czymś niezależnym od wymiarów przestrzennych i płynącym jednakowo w każdym punkcie Wszechświata, tylko dodatkowym, czwartym wymiarem tzw. czasoprzestrzeni Minkowskiego. Transformacje Lorentza, opisujące związki między obrazami świata różnych obserwatorów inercjalnych, odpowiadają szczególnym przekształceniom tej czasoprzestrzeni na samą siebie – obrotom hiperbolicznym. Wszystkie takie obrazy świata obserwowane w różnych układach odniesienia są równouprawnione i jednakowo rzeczywiste: nie dzielą się na „prawdziwe” i „pozorne”.

Tak powstała szczególna teoria względności (STW). Eter nie jest w niej do niczego potrzebny. Magnetyczna i elektryczna składowa pola elektromagnetycznego są różnie postrzegane przez różnych obserwatorów, ale nadal są od siebie nawzajem zależne w sposób opisany przez równania Maxwella. Ta sama fala elektromagnetyczna ma dla różnych obserwatorów różną długość/częstotliwość, ale w każdym układzie odniesienia rozchodzi się z tą samą uniwersalną prędkością. To nie drgający ośrodek wypełniający przestrzeń ma dziwne właściwości, tylko czasoprzestrzeń zdefiniowana w STW różni się od tego, co dawniej wydawało się bezdyskusyjnie oczywiste.

Z pozoru „każdy widzi”, że przestrzeń jest trójwymiarowa, a ruch oznacza zmianę położenia obiektu w niezmiennej przestrzeni w różnych momentach płynącego sobie niezależnie czasu. Jednak przekonanie, że coś jest bezsprzecznie zgodne z rzeczywistością, może być tylko złudzeniem wynikającym z ograniczoności naszego codziennego doświadczenia: na przykład zazwyczaj nie poruszamy się względem innych ludzi z prędkościami zbliżonymi do c. Nawet lecąc załogowym pojazdem kosmicznym na Księżyc potrzebujemy mniej więcej trzech dni, żeby dotrzeć w jego pobliże. Światło pokonuje drogę z Ziemi na Księżyc w 1,3 sekundy.

Czym jest lub nie jest czasoprzestrzeń?

W szczególnej teorii względności Einsteina pola fizyczne przenikające przestrzeń nie potrzebują specjalnego ośrodka materialnego. Są funkcjami przedstawiającymi efekty oddziaływań w zależności od położenia w czasie i przestrzeni, przy czym pomiary tych położeń są względne – zależą od ruchu obserwatorów. Czasoprzestrzeń Minkowskiego, choć niesprowadzalna do zwykłej przestrzeni euklidesowej, jest płaska i taka sama w każdym punkcie – a zatem niezbyt skomplikowana z matematycznego punktu widzenia. Jest areną zachodzenia zjawisk takich jak pole elektromagnetyczne albo pomiary odległości i przedziałów czasu dokonywane przez obserwatorów poruszających się ruchem jednostajnym po liniach prostych (transformacje Lorentza nie deformują tej „prostolinijności”). Można z powodzeniem założyć, że czasoprzestrzeń jest czystą geometrią – zbiorem relacji pozwalających wiązać ze sobą pomiary dokonywane w różnych układach odniesienia. STW nie odpowiada natomiast na pytanie, czy i czym czasoprzestrzeń jest wypełniona.

Masa jest w STW ważna o tyle, że zależą od niej pęd i energia obiektów fizycznych. Z relacji między pędem a energią wynika koncepcja energii spoczynkowej E0 przypisywanej obiektowi o masie m0 także w układzie odniesienia, w którym pęd tego obiektu jest zerowy (tzn. jest on nieruchomy względem obserwatora). Ten związek między masą a energią, którego znaczenie wykracza daleko poza STW, opisuje sławne równanie: E0 = m0 c2 (albo, jeśli kto woli, m0 = E0/c2), wyprowadzone przez Einsteina w 1905 r.4 Ale szczególna teoria względności pomija coś, co w naszym Wszechświecie z całą pewnością pomijalne nie jest: nie opisuje powszechnie występującego wzajemnego oddziaływania mas, czyli grawitacji, która powoduje, że obserwatorzy ulegają przyśpieszeniom, a zatem ich układy odniesienia nie są inercjalne.

Grawitacja jako geometria

Einstein pracował kolejne dziesięć lat nad rozszerzoną wersją teorii, która uwzględniałaby zjawisko grawitacji i pozwalała opisać związki między wszelkimi układami odniesienia, także nieinercjalnymi. Rezultatem była ogłoszona w 1915 r. ogólna teoria względności (OTW). Grawitacja stanowi w niej właściwość geometryczną samej czasoprzestrzeni – odpowiada mianowicie jej krzywiźnie. Opis matematyczny zakrzywionej czterowymiarowej czasoprzestrzeni OTW nie jest łatwy; wymaga użycia rachunku tensorowego, ale mówiąc najprościej, jak się da: obecność masy/energii i naprężenia/ciśnienia objawia się jako zakrzywienie czasoprzestrzeni, a z kolei od tego zakrzywienia zależy ruch masy/energii. W otoczeniu masywnego ciała o dużej gęstości czasoprzestrzeń zakrzywia się bardziej niż w sąsiedztwie masy mniejszej lub bardziej rozproszonej.

Ziemia nie porusza się względem odległych gwiazd jednostajnym ruchem prostoliniowym, ale wraz z innymi obiektami Układu Słonecznego orbituje wokół wspólnego środka ciężkości. W naszym zakątku czasoprzestrzeń jest zakrzywiona wskutek obecności wielkich i gęstych skupisk materii (przede wszystkim ogromnej masy Słońca). Ziemia „spada swobodnie” po tzw. linii geodezyjnej5, co w czasoprzestrzeni płaskiej (jak w STW) oznaczałoby ruch po prostej. Jednak z naszej perspektywy obserwacyjnej postrzegamy jej trajektorię (a właściwie rzut trajektorii czasoprzestrzennej na przestrzeń trójwymiarową) jako krążenie po zamkniętej orbicie – w przybliżeniu eliptycznej.

Przewidywania OTW (obserwowalne efekty zakrzywienia czasu i przestrzeni) są różnorodne. Jeśli dwoje obserwatorów wyposażonych w identyczne zegary ulokuje się na szczycie stumetrowej wieży (obserwatorka A) i u jej podnóża (obserwator B), to A stwierdzi, że zegar B spóźnia się nieco względem jej zegara. Różnica – wykrywalna przy współczesnych metodach precyzyjnego pomiaru czasu – wynosi prawie jedną nanosekundę na dobę i wynika z faktu, że natężenie pola grawitacyjnego maleje wraz z odległością od Ziemi. Fotony nie posiadają masy, ale niosą energię i pęd, a zatem także zachowują się zgodnie z równaniami OTW. W pobliżu wielkich mas ich tory w zauważalny sposób ulegają zakrzywieniu. Jeśli ogromne masy podlegają potężnym przyśpieszeniom, jak na przykład podczas połączenia dwu masywnych czarnych dziur, część energii układu zostaje wypromieniowana w postaci rozchodzących się z prędkością światła deformacji czasoprzestrzeni – fal grawitacyjnych.

Wszystkie wspomniane wyżej zjawiska zostały naprawdę zaobserwowane. Mają nawet znaczenie praktyczne, bo „efekty specjalne” wynikające ze szczególnej i ogólnej teorii względności trzeba koniecznie brać pod uwagę choćby przy kalibrowaniu zegarów atomowych używanych w systemach nawigacji satelitarnej.

Ryc. 2.

Zagadkowy komponent Wszechświata

Innymi słowy – „pusta przestrzeń” w OTW nie jest tylko tłem dla zdarzeń, ale czymś w rodzaju aktywnego uczestnika zjawisk fizycznych. Czy oprócz krzywizny ma ona jakieś inne istotne właściwości? Spójrzmy na Wszechświat jako na całość. Zawiera on galaktyki pogrupowane w gromady i supergromady. Zakrzywiają one czasoprzestrzeń lokalnie, ale dają także pewien wkład w uśrednioną krzywiznę całego Wszechświata, który – jak wiemy od prawie stu lat – rozszerza się, czyli ulega ekspansji. Gęstość zawartej w nim masy/energii decyduje o tym, jaka jest globalna geometria Wszechświata: otwarta (krzywizna ujemna), zamknięta (krzywizna dodatnia) czy płaska (krzywizna zerowa). Z pomiarów promieniowania mikrofalowego tła prowadzonych od końca XX w. przez misje kosmologiczne (sondy COBE, WMAP i Planck) wynika, że obserwowalny Wszechświat jest w największej skali praktycznie płaski. Ale jeśli uwzględnimy wkład, jaki dają zwykła materia, fotony, neutrina i wspomniana w poprzednim odcinku ciemna materia, pozostaje dodatkowo ok. 68% uśrednionej gęstości Wszechświata (czyli ok. 6,7 · 10–27 kg/m3), które musi się skądś brać, żeby „wypłaszczyć” Wszechświat. Jest to tak zwana ciemna energia, czyli gęstość masy/energii „pustej przestrzeni”.

Ekspansja Wszechświata nie polega na tym, że galaktyki rozbiegają się promieniście od jakiegoś centralnego punktu jak odłamki granatu. Rozszerza się przestrzeń, w której są zanurzone. Nie ma czegoś takiego jak miejsce, gdzie zaczęła się ekspansja. Zaczęła się wszędzie – żaden punkt Wszechświata nie jest pod tym względem wyróżniony. Masa materii i energia promieniowania, wypełniające Wszechświat, ulegają coraz większemu rozproszeniu. Ilość materii pozostaje z grubsza ta sama, więc jej średnia gęstość maleje. Długość fali promieniowania tła rośnie. Natomiast gęstość energii próżni pozostaje niezmienna i nie „rozcieńcza się” w miarę puchnięcia przestrzeni, bo jest jej stałą właściwością: in więcej próżni, tym więcej ciemnej energii. Ma to wpływ na tempo ekspansji Wszechświata. Z równań opisujących ewolucję dynamicznego wszechświata (wyprowadzonych w 1922 r. przez Aleksandra Friedmana na podstawie OTW) wynika, że jeśli gęstość energii próżni jest większa od zera, to wszechświat (niezależnie od tego, jaka jest jego geometria) może się rozszerzać z narastającą prędkością.

Z pomiarów prędkości ucieczki odległych obiektów kosmicznych wynika, że około 5 miliardów lat temu nasz Wszechświat wszedł w stadium ewolucyjne zdominowane przez ciemną energię, co oznacza, że jego ekspansja zaczęła przyśpieszać. Tak przynajmniej opisuje jego obecny stan najpopularniejszy obecnie model ΛCDM. Symbol Λ (lambda) oznacza stałą związaną z gęstością energii próżni (znaną też z przyczyn historycznych jako stała kosmologiczna Einsteina)6, a CDM to cold dark matter, czyli „zimna ciemna materia”.7 Według wspomnianego modelu te dwa składniki odpowiadają łącznie za ok. 95% masy/energii Wszechświata na obecnym etapie jego istnienia. Dość frustrujący jest fakt, że o żadnym z nich nie jesteśmy w stanie powiedzieć nic pewnego. Z drugiej jednak strony – oznacza to także, że przed fizyką i kosmologią stoi jeszcze wiele wyzwań.

Ryc. 3.

Konkluzje

Podsumowując: „próżnię” współczesnej fizyki najpierw utożsamiano z eterem światłonośnym wypełniającym równomiernie przestrzeń trójwymiarową. Kiedy się okazało, że teoria eteru stwarza więcej problemów, niż rozwiązuje, zastąpiła ją w STW koncepcja płaskiej czterowymiarowej czasoprzestrzeni Minkowskiego jako pustego i biernego tła dla uzgadniania obserwacji między różnymi, ale równouprawnionymi układami odniesienia. W OTW tło zaczęło reagować na obecność w nim „rzeczy”, ulegając deformacjom geometrycznym i wpływając na rozkład i ruch masy/energii. Fale grawitacyjne pokazują, że same zaburzenia krzywizny czasoprzestrzeni mogą się propagować, przenosząc energię na odległości miliardów lat świetlnych. Ponadto „pusta przestrzeń” odznacza się małą, ale niezerową własną gęstością energii. Choć energia ta jest najbardziej rozproszonym składnikiem Wszechświata – wypełnia go bowiem równomiernie, nie tworząc nigdzie zagęszczeń i w skali lokalnej nie ujawniając swojego istnienia – to w skali kosmologicznej ma zasadniczy wpływ na ekspansję Wszechświata.

Nie oznacza to przemycenia teorii eteru z powrotem kuchennymi drzwiami, ponieważ „próżnia” relatywistyczno-kosmologiczna nie ma konkretnych właściwości przypisywanych dawniej eterowi – z jednym wyjątkiem: jest raczej „czymś” niż „niczym”. Wiemy już trochę o tym, co na jej temat ma do powiedzenia jedna z dwóch fundamentalnych teorii współczesnej fizyki – ogólna teoria względności w połączeniu z modelem kosmologicznym ekspandującego wszechświata. Żeby jednak obraz był kompletny, trzeba się przyjrzeć próżni również ze strony drugiej teorii fundamentalnej – fizyki kwantowej. Jest to inna perspektywa, rzucająca światło na całkiem inne aspekty pojęcia próżni. Ale o tym będzie mowa w kolejnym, ostatnim odcinku tego cyklu.

Przypisy

  1. Oczywiście eteru fizycznego (ani też substancji, o której spekulowali filozofowie starożytni) nie należy mylić z eterami jako grupą związków chemicznych. Należy do niej eter dietylowy (CH3−CH2−O−CH2−CH3), potocznie zwany po prostu eterem, używany dawniej do znieczulania ogólnego, a także jako środek odurzający. ↩︎
  2. Lorentz i Poincaré byli o włos od sformułowania szczególnej teorii względności. Zabrakło im tylko śmiałości intelektualnej, aby całkowicie zrezygnować z pojęcia eteru i gruntownie zrewidować koncepcje czasu i przestrzeni. ↩︎
  3. Niezależny od układu odniesienia jest tzw. interwał czasoprzestrzenny, będący uogólnieniem pojęcia odległości w czasoprzestrzeni Minkowskiego. ↩︎
  4. Ta równoważność masy i energii oznacza, że masę (spoczynkową) obiektu fizycznego można utożsamiać z energią zamkniętą w małym obszarze przestrzeni. Dlatego masa układu nie jest zwykłą sumą mas spoczynkowych jego składników, ale zależy też od różnych form energii wewnętrznej układu (energii kinetycznej składników względem układu traktowanego jako nieruchomy i energii potencjalnej oddziaływań między nimi). Można to pokazać szczególnie dobitnie na przykładzie jąder atomów albo cząstek zbudowanych z kwarków (jak proton). ↩︎
  5. W OTW geodezyjna (uogólnienie pojęcia prostej na przestrzeń zakrzywioną) opisuje zachowanie się ciała, na które działa wyłącznie grawitacja. ↩︎
  6. Einstein wprowadził ją jako składnik równań pola w OTW, aby umożliwiały one istnienie modelu wszechświata stacjonarnego (takiego, który ani się nie kurczy, ani nie rozszerza). Sam jednak uważał to rozwiązanie za arbitralne i nieeleganckie formalnie; poza tym, jak się później okazało, nie gwarantowało ono stabilnej równowagi statycznego wszechświata. W 1929 roku obserwacje Edwina Hubble‘a dowiodły zresztą, że nasz Wszechświat nie jest statyczny. Jednak człon zawierający stałą Λ powrócił, paradoksalnie, w równaniach modelu opisującego wszechświat ekspandujący z przyśpieszeniem. Równoważność masy i energii pozwala mówić o wkładzie gęstości energii próżni w gęstość masy Wszechświata. ↩︎
  7. Określenia „zimna” oznacza w tym przypadku materię „nierelatywistyczną”, czyli taką, której cząstki poruszają się względem okolicznych galaktyk i gwiazd z prędkościami znacznie mniejszymi niż c. ↩︎

Opis ilustracji

Ryc. 1. Dwóch Albertów: Michelson (1852–1931) i Einstein (1879–1955) w okresie, gdy powstawała szczególna teoria względności (pierwsze dziesięciolecie XX w.). Warto wiedzieć, że Michelson, laureat Nagrody Nobla w 1907 r., urodził się w rodzinie żydowsko-polskiej w Strzelnie (dzisiejsze województwo kujawsko-pomorskie), spędził tam pierwsze trzy lata życia i poczuwał się do związków rodzinnych z Polską. Einstein otrzymał Nobla nominalnie za rok 1921, ale przyznanie nagród za ten rok przesunięto na 1922. Einstein nie mógł być osobiście obecny na ceremonii wręczania Nobli ze względu na pobyt w krajach Dalekiego Wschodu. Widać tu typową dla Alberta Einsteina względność położenia w czasie i przestrzeni. (Domena publiczna).
Ryc. 2. Przykłady powierzchni dwuwymiarowych o krzywiźnie wewnętrznej (gaussowskiej) ujemnej (hiperboloida), zerowej (powierzchnia walcowa, lokalnie równoważna płaszczyźnie) i dodatniej (sfera). O krzywiźnie modeli Wszechświata (otwartego lub zamkniętego) mówimy w podobnym sensie, choć opis matematyczny krzywizny przestrzeni o większej liczbie wymiarów jest bardziej skomplikowany, a sama krzywizna trudniejsza do zwizualizowania. Autor grafiki: Nicoguaro. Źródło: Wikipedia (domena publiczna).
Ryc. 3. Wizualizacja dziejów ekspansji Wszechświata zrekonstruowanej na podstawie obserwacji sondy WMAP (Wilkinson Microwave Anisotropy Probe). Źródło: NASA/WMAP Science Team (licencja otwarta).

Lektura uzupełniająca

  • Zwięzłe wyjaśnienie podstaw eksperymentu Michelsona–Morleya. Ryszkowski 2018 (portal AstroNET).
  • Podstawowe pojęcia szczególnej teorii względności. Portal edukacyjny Media Nauka.
  • „Einstein dla laików″ (2016). Wykład popularnonaukowy prof. Andrzeja K. Wróblewskiego z okazji stulecia OTW. Youtube.
  • Jakie zjawiska relatywistyczne musi brać pod uwagę system GPS, żeby w ogóle nadawał się do użytku. Charzyński 2019 (Delta).
  • Nowości z dziedziny astronomii grawitacyjnej (obserwacje za pomocą detektorów fal grawitacyjnych. Urania.
  • Podsumowanie wyników obserwacji misji Planck. Kapuścińska 2013 (portal AstroNET)

Próżnia, (nie)byt skomplikowany. Część 2: Próżnie kosmiczne

Pozostałe części cyklu

Część 1: Próżnie filozofów i eksperymentatorów
Część 3: Próżnie relatywistyczne
Część 4: Próżnie kwantowe

Jak policzono cząsteczki gazu

W pierwszym odcinku pisałem o tym, jak odłożywszy na bok rozważania filozofów, którzy łamali sobie głowę nad tym, czym jest próżnia, próbując apriorycznie ustalić możliwość bądź niemożność jej istnienia, badacze zajęli się próżnią empirycznie, czyli po prostu spróbowali ją uzyskać. Podejście takie okazało się owocne. Nauka ruszyła z miejsca, kiedy uczeni oswoili się z myślą, że „moc rozumu”, choćbyśmy nie wiem jak wytężali mózg, nie jest w stanie zastąpić obserwacji i eksperymentów.

Wspomniałem, że najniższe ciśnienie uzyskane dotąd w próbach wytworzenia sztucznej próżni to ok. 10–17 ciśnienia atmosferycznego. Oznacza to, że w centymetrze sześciennym przestrzeni mamy kilkaset poruszających się molekuł gazu. Jeżeli podzielimy sobie centymetr sześcienny na milimetry sześcienne, będzie ich tysiąc – to znaczy więcej niż molekuł. Zatem w dowolnej chwili z całą pewnością wiele komórek o krawędzi 1 mm nie zawiera ani jednej drobinki „zwykłej materii”. Jak zobaczymy, mogą one zawierać różne inne rzeczy, ale przynajmniej jeśli chodzi o bariony – protony i neutrony, z których zbudowane są jądra atomów – jest to próżnia doskonała.

Skąd znamy liczbę cząstek w objętości gazu o danym ciśnieniu? Dawni filozofowie nie mieli sposobu, żeby ją oszacować choćby w grubym przybliżeniu. Jednak od czasów Torricellego i Pascala nauka czyniła stopniowe postępy. Między XVII a XIX w. dzięki eksperymentom fizycznym powstały podwaliny teorii gazów i termodynamiki. Rozwijała się także chemia. W XVIII w. wiedziano już dość o budowie materii, żeby odróżniać pierwiastki od związków chemicznych, a w 1811 r. Amedeo Avogadro precyzyjnie rozróżnił pojęcia atomu (najmniejszej ilości pierwiastka chemicznego) i molekuły (cząsteczki związku chemicznego) oraz postawił następującą hipotezę: pod określonym ciśnieniem w określonej temperaturze dana objętość gazu zawiera stałą liczbę cząsteczek niezależnie od tego, o jakim gazie mówimy.1

W szczególności liczba molekuł gazu w objętości 0,0224 m3 (pod ciśnieniem 1 atm i w temperaturze 0°C) jest równa liczbie atomów węgla w 12 g tego pierwiastka albo liczbie molekuł w 32 g tlenu cząsteczkowego (O2). Taką ilość substancji, traktowaną jako jednostka „liczności materii”, nazywamy molem. Liczbę elementarnych składników substancji (atomów/cząsteczek) składających się na 1 mol oszacowano po raz pierwszy w 1865 r., ale dopiero na początku XX w. Jean-Baptiste Perrin, późniejszy noblista, wyznaczył ją eksperymentalnie na kilka sposobów i nazwał liczbą Avogadra (N0). Współczesna definicja mola to N0 = 6,02214076 · 1023 składników elementarnych. Znając N0 i równania opisujące związki między temperaturą, ciśnieniem i objętością gazów, potrafimy oszacować średnią liczbę cząstek w jednostce objętości zarówno w „warunkach normalnych”, jak i dla gazu skrajnie rozrzedzonego, czyli próżni w sensie technicznym.

Próżnia wokół Ziemi

Siedziba Europejskiej Organizacji Badań Jądrowych (CERN) mieści się na przedmieściach Genewy, ok. 1060 km „w prostej linii” od miejsca, gdzie piszę te słowa (okolice Poznania). Żeby znależć w przyrodzie próżnię doskonalszą niż ta wytworzona sztucznie przez naukowców z CERN, nie trzeba podróżować o wiele dalej. Trzeba tylko udać się pionowo w górę, a nie poziomo na południowy zachód.

Mniej więcej 400 km nad powierzchnią Ziemi orbitują dwie funkcjonujące obecnie załogowe stacje kosmiczne: ISS/MSK (International Space Station, czyli Międzynarodowa Stacja Kosmiczna) oraz chińska Tiangong (nazwa oznacza ‘niebiański pałac’). Znajdują się one w ośrodku, który uważamy za przestrzeń kosmiczną (zaczyna się ona umownie na wysokości 100 km, czyli na tzw. linii Kármána). Jest to jednak w rzeczywistości bardzo rozrzedzona górna warstwa atmosfery Ziemi – środkowy obszar tzw. termosfery. Ciśnienie gazu wokół ISS wynosi nieco ponad 1 μPa (jedną milionową paskala), jest zatem sto miliardów razy niższe niż ciśnienie powietrza na poziomie morza.2 Przewyższa natomiast stukrotnie ciśnienie próżni utrzymywanej w rurze akceleratora LHC.

Ryc. 1.

Gęstość materii w termosferze jest na tyle wysoka, że poruszające się w niej obiekty są zauważalnie spowalniane przez opór aerodynamiczny. Orbity załogowych stacji kosmicznych, pędzących z prędkością ok. 7,7 km/s, obniżałyby się o ok. 2 km na miesiąc, gdyby nie okresowe korekty za pomocą silników rakietowych. Próżnia wokół stacji orbitalnych jest gorąca, ponieważ zawarty w niej gaz rozgrzewa się, absorbując wysokoenergetyczne składniki promieniowania Słońca (promieniowanie rentgenowskie i skrajny nadfiolet). Temperatura na wysokości 400 km wynosi około 720°C, ale może osiągać nawet 2000°C. Oczywiście nie oznacza to, że ISS może się rozgrzać do czerwoności lub stopić wskutek kontaktu z gorącym ośrodkiem, gdyż tak rozrzedzony gaz nie jest w stanie przekazać odczuwalnej ilości ciepła pancerzowi stacji ani skafandrom astronautów odbywających spacery kosmiczne. Jest tam zatem „gorąco” w sensie termodynamicznym, ale nie potocznym.

1000 km nad powierzchnią Ziemi próżnia kosmiczna odpowiada mniej więcej tej, która wypełnia rurę LHC. Jest to jednak nadal niesłychanie rozrzedzona otulina gazowa Ziemi. Oddalając się jeszcze bardziej od naszej planety, dotrzemy w końcu do obszaru położonego gdzieś w pół drogi do orbity Księżyca, gdzie molekuły gazu (przeważnie wodoru atomowego) przestają odczuwać przyciąganie ziemskie, ponieważ silniej działa na nie ciśnienie promieniowania Słońca. Tu naprawdę zanikają ostatnie ślady atmosfery, przechodząc w próżnię międzyplanetarną.

Próżnia w Układzie Słonecznym

Tam już panują już warunki nieosiągalne (przynajmniej przy obecnych możliwościach technicznych) w laboratoriach ziemskich. Na centymetr sześcienny ośrodka międzyplanetarnego przypada od pięciu do kilkudziesięciu drobinek materii. Nie jest to zwykły gaz, ale plazma przenosząca ładunki elektryczne i oddziałująca z magnetosferami obiektów Układu Słonecznego. W ogromnej większości składa się na nią wiatr słoneczny, czyli wyrzucane z górnych warstw atmosfery Słońca strumienie protonów, elektronów i cząstek α (jąder helu 4He) ze śladową domieszką zjonizowanych atomów cięższych pierwiastków. W okolicach Ziemi rozróżniamy wiatr wolny (stosunkowo gęsty, o zmiennym składzie i „wiejący” z prędkością wahającą się w zakresie 300–500 km/s)3 oraz wiatr szybki (bardziej rozrzedzony, o prędkości ok. 750 km/s). Źródłem pierwszego jest korona Słońca, drugi pochodzi z fotosfery, czyli tego, co uważamy za „powierzchnię″ naszej gwiazdy.

Inne składniki materii międzyplanetarnej to cząstki promieniowania kosmicznego przybywające spoza Układu Słonecznego i „pył kosmiczny”, czyli resztki materii, z której powstały planety, mikrofragmenty pozostałe z kolizji większych ciał, rozproszone resztki rozpadłych komet, a nawet materia pochodząca z przestrzeni międzygwiazdowej. Pył zawiera węgiel i jego związki, krzemiany, mikroskopijne kryształki lodu, związki żelaza i innych pierwiastków. Drobiny pyłu w kontakcie ze zjonizowanym gazem mogą stanowić podłoże dla reakcji chemicznych, czasem zdumiewająco skomplikowanych. Krótko mówiąc, choć próżnia międzyplanetarna jest doskonalsza niż jakakolwiek próżnia wytworzona sztucznie na Ziemi, nie jest to ani absolutna pustka, ani bierne medium, w którym nic się nie dzieje.

Próżnia międzygwiazdowa

Ale Układ Słoneczny, podobnie jak inne układy planetarne, których znamy już ponad cztery tysiące – a liczba ta stale rośnie – jest lokalną wyspą materii barionowej związanej pochodzeniem ze swoją gwiazdą centralną i stabilizowaną przez jej pole grawitacyjne. Nawet w jego „pustych” obszarach gęstość materii jest na ogół większa niż w przestrzeni dzielącej go od innych takich wysp. W ośrodku międzygwiezdnym Drogi Mlecznej materia jest rozłożona nierównomiernie. Większość obszarów wewnątrzgalaktycznych zawiera około jednej molekuły lub atomu na cm3, ale są też takie, gdzie ta liczba jest wielokrotnie wyższa. Głównymi składnikami materii międzygwiezdnej są produkty pierwotnej nukleosyntezy, czyli wodór i hel – neutralne lub zjonizowane (tzn. w postaci gazu i plazmy). Około 1% stanowi pył – drobiny materii zawierające cięższe pierwiastki („metale”, jak mówią astronomowie).

Wśród lokalnych zgęszczeń materii międzygwiazdowej wyróżniają się obłoki molekularne, zawierające szczególnie dużo gazu (w tym wodoru cząsteczkowego, H2) i pyłu. Typowa gęstość materii w takich obszarach (o średnicy od roku do kilkuset lat świetlnych) to kilkadziesiąt lub kilkaset cząsteczek na cm3, ale tworzą się w nich lokalne zgęszczenia zawierające od 10 tys. nawet do miliona cząsteczek w tej samej objętości. Obłoki molekularne bywają nazywane żłobkami lub wylęgarniami gwiazd, bo ze względu na swoją gęstość mogą wskutek jakiegoś zewnętrznego zaburzenia zapaść się pod wpływem własnej grawitacji, dając początek młodym gwiazdom. W ostatnich latach okazało się, że obłoki molekularne są także reaktorami chemicznymi, w których powstają setki złożonych związków węgla, wodoru, tlenu, azotu czy siarki. Pisał o tym Mirosław Dworniczak we wpisach Organiczne odpadki z fabryki gwiazd – część 2 oraz Kosmiczne laboratorium chemiczne – część 2); patrz też mój wpis, którego fragment poświęciłem międzygwiezdnej chemii organicznej. Proszę pamiętać, że wszystko to zachodzi w ośrodku, który na Ziemi kwalifikowałby się jako wysoka próżnia.

Ryc. 2.

Gaz i plazma zawarte w obłokach międzygwiazdowych mogą świecić – jak w przypadku mgławic emisyjnych, wzbudzanych promieniowaniem nadfioletowym pobliskiej gwiazdy. Inne z kolei widzimy jako ciemne chmury na tle odleglejszych gwiazd, bo mimo swojego rozrzedzenia bardzo skutecznie absorbują światło widzialne. Teleskopy kosmiczne Hubble’a i Jamesa Webba dostarczają spektakularnych zdjęć obłoków kosmicznych wszelkiego typu (patrz ryc. 2). Gdybyśmy mogli podróżować swobodnie po Galaktyce, to znalazłszy się głęboko wewnątrz obłoku międzygwiazdowego, nie zauważylibyśmy nic szczególnego, może oprócz przygaśnięcia światła dalekich gwiazd. Podobnie chmura, która z daleka ma określony, wyraźnie zarysowany kształt, uwypuklony przez cienie i refleksy światła, zmienia się w bezpostaciowe zamglenie, kiedy przelatujemy przez nią samolotem. Coś, co jest w zasadzie próżnią, przybiera zdumiewające kształty i mieni się barwami światła wskutek faktu, że oglądamy z bardzo daleka chmurę materii wprawdzie rozrzedzoną, ale ze względu na swoje ogromne rozmiary wywołującą efekty optyczne.

Próżnia międzygalaktyczna

Galaktyki to także wyspy materii związane grawitacyjnie (dlatego ich materia nie rozprasza się po całym Wszechświecie, tylko zgodnie krąży wokół wspólnego środka ciężkości. Należy zatem oczekiwać, że ośrodek międzygalaktyczny powinien być jeszcze bardziej rozrzedzony niż międzygwiazdowy. Tak jest w istocie. Gęstość materii barionowej (głównie atomowego wodoru i helu) poza galaktykami spada do około jednego atomu na m3 (innymi słowy, 0,000001 atomu na cm3), a pomiędzy gromadami galaktyk jest jeszcze niższa, rzędu 0,2 atomu na m3. Oznacza to, że w kilometrze sześciennym przestrzeni międzygalaktycznej rozproszonych jest nie więcej niż miliard atomów – mniej niż jedna stutysięczna nanograma zwykłej materii. Nanogram można sobie unaocznić jako średnią masę jednej komórki naszego ciała, czyli czegoś, czego nawet nie widzimy nieuzbrojonym okiem. Próżni bardziej zbliżonej do ideału niż pustki kosmiczne z dala od galaktyk nie ma już nigdzie indziej w dostępnej obserwacjom części Wszechświata.

Niemniej nawet ośrodek międzygalaktyczny nie jest całkowicie jednorodny i bierny. Istnieją w nim wielkoskalowe struktury złożone prawie z niczego. Zawiera on także składniki, o których dotychczas nie wspomniałem. Zacznijmy od tego, co oczywiste i dobrze widoczne: od światła. Promieniowanie gwiazd przenika Wszechświat. Gdybyśmy się znaleźli w przestrzeni międzygalaktycznej, to kierując teleskop w dowolną stronę, widzielibyśmy niezliczone galaktyki podobnie jak z Ziemi albo z teleskopów kosmicznych – właściwie nawet lepiej, bo nie przeszkadzałaby nam materia międzyplanetarna ani międzygwiazdowa. Strumienie fotonów emitowanych przez zbiorowiska gwiazd docierają stale nawet do miejsc oddalonych o setki tysięcy lat świetlnych od jakiejkolwiek galaktyki. Fotony nie mają co prawda masy spoczynkowej, ale niosą pęd i energię, a zatem nie można ich ignorować w bilansie zawartości próżni. Trudniejsze do wykrycia, ale za to wszechobecne, są także neutrina produkowane we wnętrzach gwiazd i przemierzające Wszechświat praktycznie bez przeszkód.

Skoro mowa o fotonach, nie wolno zapomnieć o mikrofalowym promieniowaniu tła. Jest ono reliktem z czasów, kiedy młody Wszechświat – mający wówczas 379 tys. lat – rozrzedził się i schłodził na tyle, że stał się przezroczysty dla promieniowania elektromagnetycznego (światło „oddzieliło się od materii”). Promieniowanie tła nadlatuje z każdego kierunku z tą samą charakterystyką: odpowiada ona widmu promieniowania ciała doskonale czarnego o temperaturze 2,725 K (co oznacza, że maksimum jego natężenia przypada na długość fali ok. 1 mm).4 Na każdy centymetr sześcienny Wszechświata, nawet w najgłębszych pustkach międzygalaktycznych, przypada w dowolnej chwili 411 fotonów mikrofalowego promieniowania tła i tylko jeden foton innego pochodzenia.

Mniej znanym zjawiskiem jest neutrinowe tło Wszechświata. W odróżnieniu od fotonów neutrina zaczęły przenikać materię supergęstego Wszechświata, kiedy jego wiek wynosił zaledwie sekundę. Szacuje się, że na każdy cm3 objętości Wszechświata przypada średnio ok. 339 reliktowych neutrin. Ze względu na ich niską energię i ogólnie słabe oddziaływanie neutrin ze zwykłą materią nie jesteśmy na razie w stanie wykryć ich bezpośrednio, ale wywierają one zauważalny wpływ na fluktuacje mikrofalowego promieniowania tła i rozkład materii we Wszechświecie. Neutrina nie są cząstkami bezmasowymi, ale ich masy są niezmiernie małe. Nie ma ekranów zdolnych efektywnie zatrzymać neutrina. Jeśli zamkniemy się w głębokiej kopalni, dwa kilometry pod powierzchnią Ziemi, nie dotrze do nas żaden proton czy foton pochodzenia kosmicznego, natomiast nadbiegające ze wszystkich stron neutrina tła będą nas przenikały tak samo, jak gdybyśmy się znajdowali w przestrzeni kosmicznej.

Ryc. 3.

Co jeszcze mamy we Wszechświecie?

Czy to już wszystko? Bynajmniej. Wiadomo, że materia barionowa (czyli „zwykłe” jądra atomowe i zbudowane z nich struktury) stanowi mniej niż jedną piątą masy materii we Wszechświecie. Z czego składa się reszta? Nie wiadomo. Jest to tak zwana ciemna materia, niewidoczna, bo nieemitująca i niepochłaniająca promieniowania elektromagnetycznego. Przeważa pogląd, że podlega ona oddziaływaniom słabym, dlatego (podobnie jak neutrina) prawie nie wchodzi w reakcje z materią barionową. Istnieje kilka hipotez na temat tego, czym jest i skąd się wzięła ciemna materia, ale żadna z nich nie została na razie poparta dowodami empirycznymi. Jedno jednak wiemy: ciemna materia jest obdarzona masą i oddziałuje grawitacyjnie. Choć nie tworzy zwartych struktur w małej skali, to dzięki grawitacji gromadzi się w otoczkach galaktyk, stanowiąc przeważającą część ich masy (ok. 90% w przypadku Drogi Mlecznej).

Także w przestrzeni międzygalaktycznej jest kilka razy więcej ciemnej materii niż zwykłej. Nie zmienia to faktu, że gęstość wszelkiej materii jest w tym ośrodku znikoma, nawet gdy uwzględnimy fotony, neutrina i bliżej nieznane cząstki ciemnej materii. A czym jest reszta? Prawdziwą próżnią kosmiczną. To znaczy czym? Absolutną pustką, czyli przestrzenią, w której nie ma dosłownie nic? Na to trudne pytanie spróbujemy odpowiedzieć w trzeciej części cyklu.

Przypisy

  1. Mówiąc ściśle, równość postulowana przez Avogadra dotyczy tzw. gazu doskonałego, czyli pewnej idealizacji teoretycznej. Jednak w dużym zakresie warunków różnice między gazem idealnym a gazami rzeczywistymi są na tyle niewielkie, że objętości molowe wodoru, helu, azotu czy tlenu można z czystym sumieniem uznać za równe i wynoszące 22,4 litra. ↩︎
  2. Jak wspomniałem w poprzednim odcinku, taką próżnię są w stanie wytworzyć laboratoryjne i przemysłowe pompy turbomolekularne. Próżnia wokół stacji kosmicznej ma jednak tę przewagę, że nie trzeba jej wytwarzać i że ma ona praktycznie nieograniczoną objętość. Można zatem korzystać z pobytu na stacji, aby przeprowadzać w stosunkowo wysokiej próżni eksperymenty, których wykonanie na Ziemi byłoby kłopotliwe lub niemożliwe (patrz ryc. 1). Dodatkową zaletą stacji kosmicznych jest to, że panują na nich warunki mikrograwitacji (stan nieważkości). ↩︎
  3. Szczególnym przypadkiem są wyrzuty materii koronalnej, zdarzające się raz na kilka dni lub kilka razy dziennie zależnie od fazy cyklu aktywności Słońca. Stosunkowo wąskie, ukierunkowane wyrzuty miliardów ton plazmy osiągają prędkości od 20 do 3200 km/s i mogą docierać poza orbitę Ziemi, a nawet Marsa w postaci obłoków magnetycznych. Ich widocznymi skutkami są burze magnetyczne, zorze polarne, a w skrajnych przypadkach uszkodzenia sztucznych satelitów lub sieci energetycznych. ↩︎
  4. Z powodu ekspansji Wszechświata temperatura promieniowania tła maleje z upływem czasu, a jego długość fali rośnie (jest dosłownie rozciągana wraz z przestrzenią). W chwili „uwolnienia″ widmo promieniowania tła odpowiadało temperaturze ok. 3000 K, a szczyt natężenia przypadał na długość 970 nm, czyli na bliską podczerwień, ale duża część widma wchodziła w zakres światła widzialnego. Młody Wszechświat był zatem „rozgrzany do czerwoności″, jak by to ujął Lucas Bergowsky. ↩︎

Opis ilustracji

Ryc. 1. Fragment Międzynarodowej Stacji Kosmicznej sfotografowany z jej wnętrza. W górnej części widoczny japoński moduł Kibō i jego „instalacja eksponowana″ (Exposed Facility), znana potocznie jako „Taras″. Jest ona otwarta na zewnętrzną próżnię i służy do przeprowadzania eksperymentów badawczych. Źródło: NASA 2021 (domena publiczna).
Ryc. 2. Mgławica Kraba w gwiazdozbiorze Byka (6500 lat świetlnych od Ziemi). Pozostałość po supernowej z 1054 r. Obecna średnica mgławicy to ok. 11 lat świetlnych. W centrum mgławicy znajduje się pulsar – gwiazda neutronowa wirująca z prędkością 30 obrotów na sekundę. Wiatr cząstek relatywistycznych emitowanych przez pulsar generuje promieniowanie synchrotronowe, będące źródłem świecenia mgławicy w zakresie od promieniowania rentgenowskiego do fal radiowych. Gęstość gazu we włóknach mgławicy wynosi około 1300 atomów/molekuł na cm3. Źródło: Webb Space Telescope 2023 (domena publiczna).
Ryc. 3. Odległa gromada galaktyk MACS J1423 zdominowana przez olbrzymią galaktykę eliptyczną (widoczną w centrum zdjęcia). Soczewkowanie grawitacyjne powodowane przez masę gromady jest źródłem powiększonych, zdeformowanych obrazów galaktyk położonych daleko za nią. Gromada leży w odległości 5,4 mld lat świetlnych od Drogi Mlecznej (mierzonej jako czas podróży światła). W układzie współrzędnych współporuszających się (czyli z poprawką na rozszerzanie się Wszechświata) odległość ta wynosi 6,7 mld lat świetlnych. Źródło: Webb Space Telescope 2024 (domena publiczna).

Lektura dodatkowa

  • Astrochemia przestrzeni międzygwiazdowej: Gronowski 2015 (Forum Akademickie).
  • Mikrofalowe promieniowanie tła: Petelczyc 2024 (National Geographic).
  • Kosmiczne neutrina tła: CERN 2020.
  • Z czego składa się Wszechświat? WMAP/NASA.

Próżnia, (nie)byt skomplikowany. Część 1: Próżnie filozofów i eksperymentatorów

Pozostałe części cyklu

Część 2: Próżnie kosmiczne
Część 3: Próżnie relatywistyczne
Część 4: Próżnie kwantowe

Cykl jest odpowiedzią na prośbę czytelnika

Już starożytni Grecy

Już w starożytności zastanawiano się, czy istnieje przestrzeń całkowicie pusta, to jest wypełniona niczym. W kręgach filozofów starogreckich istniały szkoły różnie wyobrażające sobie, czym jest materia i czym jest jej brak. W V/IV w. p.n.e. Leukippos z Miletu (znany też w tradycji polskiej jako Leucyp) oraz jego uczeń Demokryt z Abdery rozwinęli teorię atomistyczną (reprezentowaną także przez Epikura, a w I w. p.n.e. przez Rzymianina Lukrecjusza). Zakładała ona, że materia ma strukturę dyskretną: składa się z bytów elementarnych zwanych atomami (átomos znaczy po grecku ‘niepodzielny, niedający się pociąć’). Atomy miały według niej różną wielkość i formę geometryczną. Były niezmienne, ale znajdowały się w nieustannym ruchu, oddziałując z sobą i łącząc się w zmienne konfiguracje. Pierwotnie ruch atomów miał być całkowicie chaotyczny, ale stopniowo dzięki zderzeniom nabrał cech samoorganizacji. Powstały z niego różne substancje i struktury – w tym Ziemia wraz ze wszystkim, co na niej widzimy, a także inne, podobne do niej światy. Przestrzeń, w której kotłowały się atomy, nie zawierała nic ponadto: była doskonałą próżnią (kenón) – drugim oprócz materii komponentem Wszechświata.

Inni filozofowie, z Arystotelesem (IV w. p.n.e.) na czele, zaprzeczali istnieniu niepodzielnych atomów, wyobrażając sobie materię jako coś ciągłego, czyli podzielnego w nieskończoność. Arystoteles przejął od Empedoklesa z Agrygentu teorię czterech elementów (żywiołów), z których składa się nasz świat: ziemi, wody, powietrza i ognia. Każdy z nich był substancją ciągłą, podzielną w nieskończoność. Grecy doskonale zdawali sobie sprawę z tego, że również powietrze jest materią i że może się poruszać, czego dowodem jest zjawisko wiatru. „Puste” naczynie jest w istocie pełne powietrza. Gdyby jednak jakimś cudem udało się je całkowicie usunąć, jego miejsce zająłby wprowadzony przez Arystotelesa piąty, skrajnie subtelny żywioł, mianowicie eter (aithḗr). Słowo to oznaczało po starogrecku czystą esencję powietrza (jaką zdaniem filozofów oddychali olimpijscy bogowie), a także jasne niebo; pochodziło zaś od czasownika aíthō ‘rozpalić’. Eterem, według Arystotelesa, wypełnione były zewnętrzne sfery Wszechświata, zawierające ciała niebieskie: planety, Słońce i gwiazdy stałe.

Opór antyatomistów przed koncepcją próżni przypominał niechęć wczesnych matematyków do traktowania zera jako liczby – bo czyż twierdzenie, że nicość jest „czymś”, nie jest wewnętrznie sprzeczne? Czy niebyt może być? Czy w próżni w ogóle możliwy jest ruch, skoro nie ma względem czego się poruszać? I próżnia, i zero bywały zatem odrzucane z pobudek filozoficznych, a nawet religijnych. Całkiem poważnie roztrząsano pytanie, czy sam Bóg, gdyby zechciał, mógłby stworzyć próżnię doskonałą.

Od filozofii do praktyki

Jednak zamiast filozofować, można do kwestii próżni podejść empirycznie i zobaczyć, co z tego wyniknie. Czy można w praktyce uzyskać stan próżni, którą można by nazwać techniczną –  przestrzeń może nie absolutnie pustą, ale na tyle pozbawioną wszelkiej materii, na ile jest to praktycznie możliwe? Heron z Aleksandrii (I–II w. n.e.) eksperymentował z rozrzedzaniem i sprężaniem powietrza, a wnioski ze swoich doświadczeń opisał w traktacie Pneumatyka. Jego zdaniem samo zjawisko sprężystości objętościowej powietrza dowodziło istnienia próżni absolutnej, czyli pustego miejsca między cząsteczkami gazu – Heron należał bowiem do zwolenników atomizmu. Jeśli przyjmiemy, że cząsteczki te nie zmieniają objętości, to rozrzedzanie lub sprężanie powietrza musi sprowadzać się do tego, że zmienia się odległość między nimi. W komorze zawierającej powietrze znajduje się zatem określona objętość próżni, w której porusza się mniejsza lub większa liczba „atomów” powietrza. Heronowi nie udało się jednak wytworzyć sztucznie próżni choćby zbliżonej do doskonałej.1

Koniec strachu przed próżnią

Aż do XVII w. dominował pogląd, że natura nie znosi próżni (natura abhorret vacuum) i zawsze znajdzie sposób, żeby się przeciwstawić próbie jej wytworzenia. Pogląd ten obalił w 1643–1644 r. Evangelista Torricelli, przeprowadzając prosty eksperyment ze słupkiem rtęci w rurce zamkniętej na górnym końcu. Dolny koniec rurki jest zanurzony w otwartym naczyniu z rtęcią. Jeśli wysokość słupka nad powierzchnią rtęci w naczyniu osiąga ok. 76 cm, na górnym końcu rurki powstaje próżnia (patrz ryc. 1). Wysokość słupa rtęci nie zależy od tego, czy zamknięty koniec rurki pozostaje wąski, czy np. rozszerza się w kulistą bańkę. Ciśnienie hydrostatyczne wywierane przez ciężar rtęci w rurce dokładnie równoważy ciśnienie atmosferyczne działające na rtęć w naczyniu.

Ryc. 1.

Nieco późniejsze eksperymenty zaprojektowane przez Blaise’a Pascala wykazały, że poziom rtęci w rurce w stanie równowagi maleje wraz z wysokością nad poziomem morza, co odpowiada spadkowi ciśnienia powietrza.2 Tak powstały prototypy barometrów rtęciowych.

Takie samo doświadczenie można przeprowadzić z wodą, tyle że słup wody musi być 13,5 razy wyższy, bo tyle razy gęstość wody jest mniejsza od gęstości rtęci. Już wcześniej wiedziano, że nawet najlepsza pompa nie jest w stanie wypompować wody z głębokości powyżej 34 stóp (ok. 10 m). Intrygowało to m.in. Galileusza, nauczyciela Torricellego. Torricelli wyjaśnił, dlaczego tak się dzieje. Dziesięciometrowy słup wody (podobnie jak 76-centymetrowy słup rtęci) wywiera ciśnienie równoważące ciśnienie atmosferyczne, więc zasysanie wody przez pompę na większą wysokość przestaje być możliwe: wewnątrz pompy wytwarza się próżnia (zwana na cześć swojego odkrywcy próżnią Torricellego)

Innymi słowy – siłą, która podnosi wodę w rurze, nie jest mityczny horror vacui, czyli rzekome dążenie natury do przeciwstawienia się próżni, tylko zewnętrzny nacisk powietrza (substancji posiadającej masę i wywierającej dzięki temu ciśnienie).3 Ciśnienie powietrza wyznacza granicę, powyżej której nie można za jego pomocą podnieść poziomu cieczy w rurze.

Od próżni niskiej do ultrawysokiej

Okazało się zatem, że natura wcale nie boi się próżni i nie wychodzi ze skóry, żeby uniemożliwić jej powstanie. Niebawem pojawiły się pomysłowe „pompy próżniowe” z tłokami i zaworami, które umożliwiały niemal całkowite pozbycie się powietrza z zamkniętego pojemnika. Pierwszą z nich wynalazł Otto von Guericke w 1650 r. i cztery lata później wykorzystał ją w słynnym (replikowanym publicznie do dziś) doświadczeniu z półkulami magdeburskimi, tak silnie ściskanymi przez ciśnienie atmosferyczne po wypompowaniu spomiędzy nich powietrza, że nie mogły ich rozerwać dwa zaprzęgi po 15 koni każdy.

Oczywiście ani próżnia Torricellego, ani tym bardziej próżnia uzyskiwana za pomocą pompy von Guerickego nie były doskonałe. Nawet przy najstaranniejszym wykonaniu eksperymentu Torricellego otrzymana próżnia musi zawierać co najmniej pary rtęci, których ciśnienie np. w temperaturze 25°C wynosi 261 mPa (czyli jest ok. 388 tysięcy razy mniejsze niż ciśnienie powietrza na poziomie morza).4 Jest to całkiem przyzwoita próżnia, ale w wielu współczesnych zastosowaniach potrzebujemy próżni doskonalszej o całe rzędy wielkości i wytwarzanej w bardziej praktyczny sposób. Usprawnione wersje pompy próżniowej von Guerickego używane przez następne 200 lat pozwalały prawdopodobnie uzyskiwać ciśnienie rzędu 100 Pa (czyli jednej tysięcznej zwykłego ciśnienia atmosferycznego).5 Konstrukcja tłoka i zaworów nie pozwalała na więcej. Kolejne udoskonalenia pomp tłokowych pod koniec XIX w. (tzw. pompy olejowe) pozwoliły obniżyć to ciśnienie jeszcze kilka tysięcy razy.

W latach pięćdziesiątych XIX w. Heinrich Geissler skonstruował prototyp pompy rtęciowej, inspirowanej mechanizmem wytwarzania próżni Torricellego. Można było dzięki niej uzyskać ciśnienie ok. 10 Pa (dziesięć tysięcy razy niższe od atmosferycznego) – wówczas rekordowo niskie, a według dzisiejszej terminologii mieszczące się w zakresie próżni średniej (około trzech biliardów molekuł na centymetr sześcienny). Ten typ pompy także udoskonalano w następnych dziesięcioleciach. Próżnią coraz lepszej jakości zaczęli się wówczas interesować fizycy badający zjawiska elektryczne, co z kolei motywowało konstruktorów do szukania nowych rozwiązań technicznych. Na początku XX w. wynaleziono kilka kolejnych typów pomp próżniowych, znów doskonalonych przez kolejne sto lat. Wykorzystywano je coraz szerzej, między innymi w produkcji termosów (próżnia jest świetnym izolatorem ciepła), a przede wszystkim lamp elektronowych, które zapoczątkowały rozwój elektroniki – radia, telewizji czy technologii radarowej.6

Ryc. 2.

Ekstremalne próżnie współczesne

Dziś próżnia wysoka lub ultrawysoka potrzebna jest w licznych zastosowaniach praktycznych, na przykład przy tworzeniu cienkich powłok wysokiej jakości metodą chemicznego osadzania z fazy gazowej, przy produkcji układów półprzewodnikowych i wytwarzaniu różnych wyszukanych materiałów, w spektrometrach mas itd. Największą objętościową próżnią wytworzoną dotąd przez człowieka jest wnętrze tunelu Wielkiego Zderzacza Hadronów: 15 000 m3 próżni izolującej (pod ciśnieniem ok. jednej miliardowej atmosfery) i znacznie mniejsza objętość rury, w której przyśpieszane są protony (tu utrzymywane jest ciśnienie poniżej jednej dziesięciobilionowej atmosfery, czyli próżnia ultrawysoka, mniej więcej taka, jak na powierzchni Księżyca). W centymetrze sześciennym takiej próżni można znaleźć kilkaset tysięcy cząsteczek gazu.

Współczesne metody wytwarzania bardzo wysokiej, czystej próżni polegają na stopniowym obniżaniu ciśnienia za pomocą odpowiednio dobranych pomp różnego typu. Najpierw przy pomocy pomp wyporowych (których prototypem była pompa von Guerickego) osiąga się szybko stan próżni średniej, czyli ciśnienie rzędu 1 Pa. Teraz dopiero można uruchomić pompę wydajniejszą, np. turbomolekularną z wirnikiem wykonującym około 1000 obrotów na sekundę. Łopatki wirnika przekazują energię kinetyczną cząsteczkom rozrzedzonego gazu, wypychając je poza komorę pompy. Ogromna prędkość obrotów sprawia, że pompa turbomolekularna musi pracować przy bardzo niskim ciśnieniu roboczym i być znakomicie łożyskowana, inaczej groziłoby jej szybkie przegrzanie i uszkodzenie. Pompy tego typu mogą obniżyć ciśnienie nawet do ok. 1 μPa (10–6 Pa – jest to mniej więcej jedna stumiliardowa ciśnienia atmosferycznego).7 Pompa turbomolekularna lepiej radzi sobie z usuwaniem molekuł cięższych, jak N2 i O2 (azot i tlen cząsteczkowy) lub argon, niż bardzo lekkich, jak wodór i hel.

Jeśli konieczne jest wytworzenie próżni naprawdę ekstremalnej, można zastosować pompę jonową. Molekuły gazu nadal znajdujące się w komorze są jonizowane i przyśpieszane za pomocą wysokiego napięcia. Uderzając w katodę tytanowo-tantalową wybijają z niej drobiny metalu. Pył metalowy opada na ściany komory, tworząc warstwę, w której pozostałości gazu wiązane są chemicznie lub fizycznie. Najniższe ciśnienie uzyskane tą metodą w laboratoriach CERN wynosiło nieco ponad 10–17 ciśnienia atmosferycznego. A ponieważ powietrze w normalnych warunkach zawiera ok. 3 · 1019 cząsteczek na cm3, łatwo policzyć, że wytworzono „próżnię” o gęstości molekularnej kilkuset cząsteczek na cm3. Nieźle jak na warunki ziemskie, ale jak się przekonamy w następnym odcinku, niemal cały Wszechświat składa się z próżni o wiele doskonalszej.

Przypisy

  1. Trzymając się rozumowania Herona, próżnię bliską doskonałości można by było empirycznie poznać po tym, że zawierające ją naczynie, gdyby je otworzyć pod wodą, obrócone wylotem w dół, zassałoby wodę, wypełniając się nią do końca (lub niemal do końca). ↩︎
  2. Na szczycie Puy de Dôme (1464 m n.p.m.) w Masywie Centralnym słupek miał wysokość ok. 63,3 cm, czyli o 127 mm mniej niż na poziomie morza, co starannie ustalił na prośbę Pascala jego szwagier Florin Périer, dla dobra nauki wniósłszy na tę wysokość cały zestaw eksperymentalny. Sam Pascal ze względu na słabe zdrowie nie palił się do wspinaczki. ↩︎
  3. Torricelli wyciągnął stąd wniosek, że atmosfera Ziemi przypomina ocean, tyle że składający się z powietrza, a nie z wody; my żyjemy na jego dnie i podlegamy naciskowi wywieranemu przez ciężar powietrza. Pascal wykazał, że nacisk ten zmienia się wraz z głębokością zanurzenia, analogicznie do ciśnienia wody w oceanie. ↩︎
  4. Patrz Gaffney & Marley 2014. ↩︎
  5. Jest to notabene ciśnienie wyższe niż średnie ciśnienie atmosfery Marsa na jego powierzchni. ↩︎
  6. Przed rewolucją, jaką stanowiło wprowadzenie tranzystorów, a następnie półprzewodnikowych układów scalonych, lampy elektronowe były podstawą technologii elektronicznej. Prototypowy komputer ENIAC, działający w latach 1945–1955, zawierał ponad 18 tysięcy lamp próżniowych. ↩︎
  7. Mowa o typowej wydajności pomp tego typu, bo rekordowe ciśnienia osiągane w ten sposób mogą być jeszcze niższe. ↩︎

Opisy ilustracji

Ilustracja w nagłówku. Fluktuacje chromodynamicznej próżni kwantowej. Fragment wizualizacji 3D Dereka Leinwebera, wykorzystanej w wykładzie noblowskim Franka Wilczka (2004). Źródło: Wikipedia (licencja CC BY-SA 4.0).
Ryc. 1. Eksperyment Torricellego. Ilustracja wygenerowana za pomocą aplikacji: Anping Zeng (2011), Torricelli´s Experiment, Wolfram Demonstrations Project (licencja CC BY-NC-SA).
Ryc. 2. Pompa olejowa łopatkowa firmy Busch, służąca do wytwarzania próżni średniej (minimalne ciśnienie końcowe 0,67 Pa wg producenta). Zdjęcie: Wiesław Seweryn (licencja CC BY-SA 3.0)