Próżnia, (nie)byt skomplikowany. Część 4: Próżnie kwantowe

Pozostałe części cyklu

Część 1: Próżnie filozofów i eksperymentatorów
Część 2: Próżnie kosmiczne
Część 3: Próżnie relatywistyczne

Jeszcze jedno spojrzenie na próżnię

Ponieważ jest to ostatni odcinek cyklu, warto sobie przypomnieć, jak ewoluowało pojęcie próżni. Zaczęliśmy od filozofów starożytnych: atomistów, którzy uważali, że przestrzeń między najmniejszymi cegiełkami materii jest pusta, i antyatomistów, dla których sama koncepcja pustki absolutnej była nie do przyjęcia, toteż próbowali ją wypełnić „żywiołem subtelnym” – eterem. Wiek XIX przyniósł z jednej strony tryumf atomowej teorii budowy materii, a z drugiej – renesans koncepcji eteru, tym razem jako ośrodka przenoszącego fale elektromagnetyczne. Szczególna teoria względności zanegowała istnienie eteru, a ogólna teoria względności skupiła się na geometrii czasoprzestrzeni, abstrahując od jej „wypełniacza”. Wiemy, że przestrzenie Wszechświata są na ogół niemal doskonale puste. Jednak teorie kosmologiczne znów zaczęły sugerować, że ta „pustka” odznacza się własną gęstością energii (lub, co na jedno wychodzi, masy), co prawda znikomą, ale jak się okazuje, dostatecznie dużą, żeby decydować o geometrii i ewolucji Wszechświata. Prawda, że to trochę skomplikowane jak na dyskusję o „niczym”?

Ale najdziwniejsze jeszcze przed nami. Dziś zajmiemy się koncepcją próżni w fizyce kwantowej. Fizyka współczesna to dyscyplina pełna zdumiewających odkryć, które zmieniły świat nie do poznania. Jak wszyscy wiedzą (albo powinni wiedzieć), w pierwszych dziesięcioleciach XX w. wybuchły w niej dwie rewolucje. Jedna (ogólna teoria względności) przyniosła spójną i zgodną z obserwacjami teorię grawitacji, a druga (mechanika kwantowa), która osiągnęła dojrzałość w latach dwudziestych i trzydziestych ubiegłego wieku, dostarczyła narzędzi pozwalających zrozumieć przedziwny świat cząstek subatomowych i elementarnych oraz oddziaływań między nimi. Rozwinęła się z niej fizyka kwantowa w szerszym sensie, obejmująca kilka nowych kierunków badań, takie jak kwantowa teoria pola czy informatyka kwantowa.

Świat niedookreślony i cząstki na granicy istnienia

Jednym z fundamentów fizyki kwantowej jest zasada nieoznaczoności, sformułowana w 1927 r. przez Wernera Heisenberga. Stwierdza ona, że istnieją pewne pary wielkości fizycznych (nazywamy je kanonicznie sprzężonymi), których dla tego samego obiektu nie można jednocześnie zmierzyć z dowolną dokładnością. Im precyzyjniej próbujemy ustalić jedną z nich, tym większy będzie rozrzut wyników pomiaru drugiej i vice versa. Wynika to z faktu, że cząstki materii zachowują się pod pewnymi względami jak pakiety falowe, których parametry (odpowiadające różnym klasycznym „wielkościom fizycznym”) nie mogą jednocześnie przybierać ściśle określonych wartości. Można jedynie stwierdzić, że wartości te z takim a takim prawdopodobieństwem mieszczą się w takim a takim zakresie.

Do takich sprzężonych wielkości należą pęd i położenie cząstki, o czym pisał niedawno Lucas Bergowsky (Zasada nieoznaczoności a zapis przyszłości). Możemy na przykład, dokonując pomiaru, „zmusić” cząstkę, żeby jej pęd stał się określony z dużą dokładnością, ale wtedy jej położenie staje się rozmyte: z równym prawdopodobieństwem może się ona znaleźć gdziekolwiek w sporym obszarze przestrzeni – czyli mówiąc po prostu, nie wiadomo, gdzie jej szukać. Inna taka para wielkości to energia i czas. Nietrwała cząstka ma pewien średni czas życia i masę (czyli także równoważną tej masie energię spoczynkową E0 = m0 c2). Jeśli jest dokładnie zlokalizowana w czasie, czyli rozpada się bardzo szybko, to jej masa/energia może przyjmować wartości z dość szerokiego zakresu (staje się „rozmyta”). Natomiast im bardziej rozciągnięta w czasie jest długość życia cząstki, tym dokładniej można określić jej masę/energię.

Przykładem może być najkrócej żyjąca i jednocześnie najcięższa cząstka elementarna w modelu standardowym: kwark t. Istnieje on zaledwie ok. 5 · 10–25 s – tak krótko, że ulega rozpadowi, zanim oddziaływania silne zdążą go związać z innymi kwarkami w cząstkę złożoną (hadron). Jest dzięki temu jedynym kwarkiem, którego rozpad można zaobserwować „na swobodzie”. Masa kwarku t, wyznaczona ostatnio z dużą dokładnością, odpowiada energii 172,52 ± 0,33 GeV. Jest to wartość średnia, od której masa kwarku ujawniająca się w zdarzeniach z jego udziałem może odbiegać o wielkość rzędu 0,65 GeV (powiązaną z czasem życia, co wynika wprost z zasady nieoznaczoności), czyli prawie o masę protonu. Nie jest to kwestia niedoskonałości technicznej pomiaru (która oczywiście też komplikuje ustalenie masy tak trudno uchwytnej cząstki), tylko faktu, że kwark t nie ma i nie może mieć jednoznacznie ustalonej masy; ma natomiast pewien stosunkowo szeroki rozkład prawdopodobieństwa masy z określonym powyżej maksimum i szacowanym rozrzutem wokół niego. Natomiast masę elektronu, który jest cząstką trwałą i może żyć dowolnie długo, możemy wyznaczyć z dokładnością sięgającą obecnie kilkunastu cyfr znaczących.1

Cząstki, czyli pola wzbudzone

Próżnię „klasyczną” mogą, oprócz cząstek, wypełniać pola, spośród których poznaliśmy już pole elektromagnetyczne (kombinacja pola elektrycznego i magnetycznego) i grawitacyjne. Pole to sposób, w jaki opisujemy zdolność oddziaływania na odległość. Pola klasyczne mają to do siebie, że w danym punkcie przyjmują pewną konkretną wielkość (skalarną, wektorową bądź tensorową). W szczególności wielkość ta może być równa zeru, co oznacza, że pole w danym punkcie całkowicie zanika. Jednak w fizyce kwantowej pole staje się czymś w rodzaju obiektu fizycznego. Zaciera się granica nie tylko między cząstką a odpowiadającą jej falą, ale także między cząstką/falą a zaburzeniem pola.

Cząstka może być traktowana jako stan wzbudzenia pola na tyle trwały, że można go zaobserwować wprost. A ponieważ same pola mają naturę kwantową, oddziaływania fizyczne są opisywane jako wymiana „cząstkopodobnych” fluktuacji, które zachodzą w tak krótkim czasie i w tak ograniczonej przestrzeni, że zgodnie z zasadą nieoznaczoności nie można im przypisać określonej energii/masy ani pędu/prędkości. Nie można ich także zaobserwować bezpośrednio. Używane w odniesieniu do nich określenie „cząstki wirtualne” rodzi w umyśle obraz pojawiających się i znikających cząstek materialnych. Jest to wyobrażenie nieco zwodnicze, bo aby cząstka mogła naprawdę zaistnieć, powinna mieć choć trochę określone parametry. Istnieją jednak realne (czy też „urealnione”) cząstki odpowiadające wirtualnym nośnikom oddziaływań: bezmasowe fotony i gluony, ciężkie bozony pośredniczące Z0 i W± oraz jeszcze masywniejsza cząstka Higgsa (patrz ryc. 1).

Ryc. 1.

Model standardowy postuluje istnienie znacznej liczby pól odpowiadających poszczególnym rodzajom cząstek elementarnych, interpretowanych jako ich obserwowalne wzbudzenia. Są wśród nich pola sił odpowiedzialne za przenoszenie oddziaływań fundamentalnych (elektromagnetyczne, słabe i silne), natomiast skalarne pole Higgsa odpowiada za generowanie masy spoczynkowej niektórych cząstek elementarnych.

Można w zasadzie powiedzieć, że w rzeczywistości kwantowej nie ma nic prócz wszechobecnych pól, a to, co uznajemy za cząstki i oddziaływania, odpowiada ich wzbudzeniom i fluktuacjom. Jedno pole pozostaje wszakże poza zasięgiem modelu standardowego: pole grawitacyjne, którego opis nadal jest klasyczny. Nie stworzono dotąd powszechnie akceptowanej teorii grawitacji kwantowej. Nie zaobserwowano także hipotetycznych nośników oddziaływań grawitacyjnych – grawitonów. Ogólna teoria względności i fizyka kwantowa pozostają uzupełniającymi się opisami Wszechświata, między którymi brakuje spójnego związku (choć zakłada się, że wszystkie pola i związane z nimi cząstki oddziałują grawitacyjnie).

Lista pól, jakie współistnieją we Wszechświecie, oparta tym, czego wymaga modelu standardowy, nie jest z pewnością pełna. Przypomnijmy sobie, że nie wiemy, na przykład, czym jest ciemna materia, stanowiąca według modelu ΛCDM ok. 84% masy wszelkiej materii złożonej z cząstek. Model Standardowy z prawdopodobieństwem graniczącym z pewnością wymaga poważnego rozszerzenia, aby przynajmniej był zgodny z danymi kosmologicznymi (już pomijając kwestię „specjalnego statusu” oddziaływań grawitacyjnych).

Drgawki, na które nie ma lekarstwa

Stany pola mogą być opisane jako drgania – suma wzbudzeń oscylatorów harmonicznych o różnych częstotliwościach. Energia kinetyczna oscylatora klasycznego jest zawsze dodatnia, a jej średnia wartość może przybierać różne wartości w ciągłym zakresie, poczynając od zera – jak w przypadku wahadła zatrzymanego w punkcie równowagi i pozostającego w spoczynku. Natomiast oczekiwana energia oscylatora kwantowego może dla danej częstotliwości drgań przyjmować tylko pewne dyskretne poziomy energii różniące się o stałą wartość ΔE = hf, gdzie h jest stałą Plancka, a f częstotliwością. Taka określona porcja energii odpowiada pojedynczemu kwantowi pola. Jednak najniższa dopuszczalna energia oscylatora kwantowego (zwana energią punktu zerowego lub energią drgań zerowych) wynosi E0 = hf/2, czyli połowę pojedynczego kwantu. Nie można się jej pozbyć, bo najmniejszą porcją energii, jaka może być pochłonięta lub wypromieniowana w zdarzeniach fizycznych, jest właśnie jeden kwant.

Wskutek tego pole kwantowe nie może nigdzie całkowicie zaniknąć. Zanik oznaczałby bezruch: w danym miejscu pęd związany z oscylacjami osiągałby wartość dokładnie równą zeru, a tego zakazuje zasada nieoznaczoności Heisenberga. Wahadło kwantowe, w odróżnieniu od klasycznego, nigdy nie może jednocześnie znajdować się w punkcie równowagi (minimum energii potencjalnej) i w bezruchu. Dlatego na przykład ruchy cząstek nie zanikają całkowicie nawet dowolnie blisko temperatury zera bezwzględnego (0 K) .2

Próżnia jako zbiór fluktuacji

Zatem w przestrzeni wypełnionej polami, nawet wówczas, gdy nie ma w niej żadnych obserwowalnych wzbudzeń, które można by było zinterpretować jako obecność cząstek elementarnych, każde pole ma w dowolnym miejscu i czasie własną wewnętrzną energię, stanowiącą sumę energii drgań zerowych dla oscylatorów o różnych częstotliwościach. Fizyka kwantowa zmusza pola do nieustannych losowych fluktuacji. Zgodnie z zasadą nieoznaczoności, skrajnie krótkotrwałe zaburzenia oznaczają duży rozrzut energii, jak gdyby pole spontanicznie generowało „cząstki wirtualne”, a dokładniej – pary złożone z wirtualnej cząstki i antycząstyki, które znikają równie szybko, jak się pojawiły. Można powiedzieć, że pole podtrzymuje swoje istnienie, nieustannie oddziałując samo z sobą nawet pod nieobecność „prawdziwych” cząstek. Znów pojawia się tu coś, co przywodzi na myśl dziewiętnastowieczny eter, ale i tym razem analogia jest czysto powierzchowna. Próżnia kwantowa złożona z fluktuujących pól wygląda tak samo dla każdego obserwatora inercjalnego, nie można więc wykryć ruchu jednostajnego względem niej; zachowana jest także oczywiście stała prędkość światła.

Szereg potwierdzonych eksperymentalnie zjawisk fizycznych wskazuje na to, że fluktuacje próżni kwantowej są czymś rzeczywistym, a nie tylko nadinterpretacją modelu matematycznego. Klasycznym przykładem jest efekt Casimira (przewidziany teoretycznie przez holenderskiego fizyka Hendrika Casimira w 1948 r.), polegający na tym, że między dwiema nienaładowanymi, przewodzącymi płytkami zbliżonymi w próżni na odległość d mniejszą niż 1 μm powinna się pojawić mierzalna siła przyciągająca. Bierze się ona stąd, że na zewnątrz płytek fluktuacje próżni mogą mieć dowolną długość fali3, natomiast między nimi, jak we wnęce rezonansowej, wkład do energii próżni dają tylko oscylacje o długości fali 2d/n, czyli takie, których połówka okresu mieści się w d całkowitą liczbę razy. Zatem gęstość energii skwantowanego pola elektromagnetycznego na zewnątrz płytek będzie większa niż pomiędzy nimi, jak gdyby gaz złożony z wirtualnych fotonów wywierał ciśnienie naciskające na płytki z zewnątrz (gdzie gęstość tego „gazu” jest większa niż między płytkami).

Ryc. 2.

Konflikt na pograniczu

Pewnym (delikatnie to ujmując) problemem jest fakt, że sumowanie wszystkich możliwych wkładów w całkowitą energię pól kwantowych każdego punktu w skończonym obszarze daje wynik formalnie dążący do nieskończoności. Nie ma zgody, co począć z tym fantem. Samo mechaniczne sumowanie jest procedurą cokolwiek naiwną. Pola mogą oddziaływać między sobą, zatem traktowanie ich jako niezależnych oscylatorów harmonicznych jest uproszczeniem. Wielu cząstek, a zatem i związanych z nimi pól, zapewne jeszcze nie znamy i nie wiemy, czy ich wkład w całkowitą energię próżni jest dodatni, czy ujemny (co dopuszczają niektóre hipotezy). Ponieważ nie dysponujemy kwantową teorią grawitacji, trudno przewidzieć konskwencje skwantowania oddziaływań grawitacyjnych, a właściwie samej czasoprzestrzeni.

W praktyce stosuje się wybieg polegający z grubsza na przyjęciu, że przy opisie zjawisk kwantowych interesują nas jedynie różnice energii względem pewnej energii odniesienia – obojętnie jakiej, choćby i nieskończonej (tak jak wzrost stojącego człowieka liczymy względem powierzchni, na której człowiek stoi, a nie na przykład jako odległość czubka jego głowy od środka Ziemi). Tu jednak pojawia się konflikt na styku fizyki kwantowej oraz kosmologii (opartej na ogólnej teorii względności). Przyjmijmy, że jakiś mechanizm – niekoniecznie zrozumiały przy obecnym stanie wiedzy – niweluje skutki niezerowej energii podstawowej pól w taki sposób, żeby nie wpływała ona ona na geometrię czasoprzestrzeni. Wtedy efektywna energia próżni z punktu widzenia OTW byłaby dokładnie zerowa. Jednak, jak widzieliśmy w poprzednim odcinku, obserwacje wskazują na istnienie równomiernie rozłożonej „ciemnej energii”, która jest niezbędna, żeby wyjaśnić z jednej strony płaską lub niemal płaską geometrię wielkoskalową Wszechświata, a z drugiej – jego przyśpieszającą ekspansję.

Intuicja podszeptuje, że jeśli próżnia kosmiczna posiada niezerową gęstość energii, a teorie kwantowe wymuszają niezerową energię podstawowych stanów pól, to między jednym a drugim faktem powinien istnieć jakiś związek. Byłoby przy tym miło, gdyby oczekiwania teoretyczne były zgodne z obserwacjami. Jednak wynikająca z pomiarów gęstość próżni (aczkolwiek kluczowa w modelach kosmologicznych) jest śmiesznie mała w porównaniu z tym, co wynika z kwantowej teorii pola.4 Przez „śmiesznie mała” należy rozumieć, że rozbieżność wynosi ok. 120 rzędów wielkości. Tym lepiej zresztą dla nas, a także dla Wszechświata. Gdyby gęstość próżni była zgodna z szacunkami teoretycznymi i wynosiła 1096 kg/m3, Wszechświat nie byłby – mówiąc eufemistycznie – miejscem, jakie znamy i lubimy.5

Próżnia coraz bardziej tajemnicza

Zapewne przy obecnym stanie wiedzy po prostu nie ma sensu stosowanie przewidywań fizyki kwantowej (która pomija oddziaływania grawitacyjne), aby przewidzieć zjawiska istotne dla OTW (która z kolei pomija kwantowe podejście do opisu oddziaływań grawitacyjnych).6 Poprzestańmy zatem na konstatacji, że całkowita energia próżni kwantowej nie jest na razie obliczalna (co nie ma wielkiego praktycznego znaczenia, dopóki nie rozważamy jej wpływu w skali kosmicznej), a ciemna energia ma gęstość bardzo małą, lecz większą od zera i na razie niewyprowadzalną z teorii pól kwantowych (co także nie jest wielkim zmartwieniem, dopóki nie próbujemy na serio zunifikować fundamentalnych teorii fizycznych).

Wielka unifikacja wciąż nam się wymyka. Nie dlatego, żeby brakowało hipotez – mamy raczej problem z ich nadmiarem. Wszystkie proponowane rozwiązania nie mogą jednocześnie być prawdziwe (choć mogą być – i być może są – jednocześnie fałszywe). Ale żeby porównać ich zgodność z empirią w celu oddzielenia ziarna od plew, trzeba by było rozstrzygających obserwacji i eksperymentów. Te, które przeprowadzono do tej pory, ujawniają tak doskonałą, że aż irytującą dokładność przewidywań zarówno OTW, jak i teorii kwantowych tam, gdzie są one stosowalne. Nie podpowiadają jednak, jak scalić te teorie w spójny opis wszystkich aspektów Wszechświata.

Przesłanie końcowe

Dotychczasowy rozwój fizyki w dużym stopniu polegał na przełamywaniu ograniczeń naszej naiwnej wyobraźni. Po każdym dużym kroku naprzód świat stawał się curiouser and curiouser (jak to ujął Lewis Carroll w Alicji w Krainie Czarów). Z punktu widzenia przedstawionych tu refleksji nad historią pojęcia próżni, czyli pustki tak doskonałej, jak to tylko możliwe, mamy do czynienia z interesującym paradoksem. Próżnia współczesna, z uwzględnieniem jej aspektów relatywistycznych, kosmologicznych i kwantowych, pozostaje zjawiskiem bardziej zagadkowym niż kiedykolwiek w przeszłości, choć zdawałoby się, że nie może istnieć nic prostszego. Być może trzeba poczekać na kolejny przełom w fizyce, zanim lepiej zrozumiemy, czym jest „nic”.

Przypisy

  1. Można to sobie wyobrazić na podstawie analogii z drgającą struną. Im krócej trwa jej drganie, tym trudniej określić, a nawet zdefiniować jego częstotliwość. Natomiast jeśli drganie obejmuje wiele okresów drgań struny, określenie częstotliwości nie nastręcza problemów. Wystarczy policzyć liczbę oscylacji w dłuższym okresie czasu i wykonać proste dzielenie (tyle a tyle cykli na sekundę). ↩︎
  2. Nie jest to jedyna ważna różnica między oscylatorem klasycznym a kwantowym. Na przykład ten drugi może z pewnym prawdopodobieństwem znaleźć się w obszarze zabronionym według modelu klasycznego („uciec″ ze studni potencjału, nie pobierając energii z zewnątrz). In a różnica polega na tym, że oscylujące wahadło spędza najwięcej czasu tam, gdzie porusza się najwolniej, a jego energia potencjalna jest największa, czyli blisko miejsc maksymalnego wychylenia, natomiast oscylator kwantowy z największym prawdopodobieństwem można znaleźć w otoczeniu stanu o najniższej energii potencjalnej. ↩︎
  3. Oczywiście ta „dowolność″ jest względna, bo w praktyce efekt Casimira bada się np. w komorze próżniowej, która też narzuca oscylacjom pewne warunki brzegowe. Ale w każdym razie zakres swobody jest dla nich znacznie większy niż w wąskiej szczelinie między płytkami. ↩︎
  4. Albo raczej zdaje się wynikać, bo założenia przyjmowane w próbach teoretycznego oszacowania całkowitej energii próżni zdecydowanie skłaniają do sceptycyzmu. ↩︎
  5. Odpowiada to mniej więcej domniemanej gęstości Wszechświata, kiedy jego wiek był rzędu czasu Plancka, czyli 5,39 · 10–44 s. Dla porównania: najgęstsze obiekty astronomiczne, jakie znamy (poza hipotetyczną osobliwością we wnętrzu czarnej dziury), czyli gwiazdy neutronowe, mają gęstość „zaledwie″ około 3,7–5,9 · 1017 kg/m3. Jest to nieco więcej niż gęstość materii wewnątrz jądra atomu. ↩︎
  6. Aczkolwiek od czasu do czasu ktoś próbuje; patrz Łach 2023 (Projekt Pulsar) o publikacji Tkatchenko & Fedorov 2023). ↩︎

Opis ilustracji

Ryc. 1. Siedemnaście cząstek „modelu standardowego”. Nie wszystkie podane masy są zgodne z aktualnymi oszacowaniami (co nie powinno dziwić, bo jest to dynamicznie rozwijający się obszar badań). Autor: Andrzej Barabasz (Chepry) 2012. Źródło: Wikimedia Commons (licencja CC BY-SA 3.0).
Ryc. 2. Efekt Casimira. Obszar między przewodzącymi płytkami narzuca ograniczenia na długość fali oscylacji (odpowiadających wirtualnym fotonom) w kierunku prostopadłym do płytek. Autor: Kyle Kinsgbury (aphyr) 2009 (fair use).

Lektura uzupełniająca

  • Więcej o kwarku t. Adamczyk 2024 (kwantowo.pl).
  • Dlaczego model standardowy jest teorią zbyt dobrą. Kowalski-Glikmann 2022 (Projekt Pulsar)
  • Dla ambitnych czytelników: różne aspekty i odmiany efektu Casimira i jego możliwe znaczenie praktyczne. Stange, Campbell & Bishop 2021.

Naukowo do siego roku

Język prasłowiański posiadał bogaty system zaimków wskazujących, wyrażających różne stopnie dystansu. Większość współczesnych języków znacznie uprościła ten system. Na przykład w polskim mamy kontrast zaimków ten (kiedy wskazujemy na coś bliskiego) i tamten (wskazanie na coś dalszego) – i na tym właściwie koniec. Inne zaimki wskazujące zachowały się głównie w utartych zwrotach: to i owo, ten i ów (gdzie ów ma znaczenie podobne do dzisiejszego tamten), oraz w stylu książkowym: owego roku, wówczas, podówczas. Jeśli silimy się na archaizację, możemy wyciągnąć z lamusa jeszcze bardziej zakurzone formy: onego czasu, naonczas. Oczywiście słowa on, ona, ono (w liczbie mnogiej oni, one) są powszechnie używane jako zaimki osobowe w mianowniku 3. osoby. W tej funkcji wyparły one prasłowiańskie formy zaczynające się na *j (*jь, *ja, *je), stąd dziwna odmiana: mianownik on, ona, ale dopełniacz jego, . Przestały jednak odgrywać rolę zaimków wskazujących.

Innym zapomnianym zaimkiem był *, wskazujący na coś bliskiego – dosłownie lub metaforycznie dotykalnego. Jego oczekiwaną kontynuacją w polskim po zaniku samogłoski słabej (jeru) byłoby w rodzaju męskim samo ś. Taka redukcja zawsze jest kłopotliwa, bo prowadzi do zaniku samodzielności dotkniętego nią wyrazu (patrz wspomniane w innym wpisie dzieje zaimka *, od którego pochodzi dzisiejsze ten). Słowianie rozwiązywali takie problemy, dodając jakiś rozszerzający przyrostek, np. *sь‐jь lub *sь‐nъ. Wyszłoby z tego polskie *si lub *sien (patrz dawne rosyjskie sej albo staroczeskie sen), ale taki zabieg okazał się zbędny, bo nasi przodkowie niemal całkowicie zrezygnowali z używania onego zaimka. Pozostało po nim tylko kilka „żywych skamieniałości”.

Najważniejszą z nich jest słowo dziś, dzisiaj, które pochodzi nieco krętą drogą od prasłowiańskiego *dьnь‐sь ‘najbliższy/obecny dzień’ – taki, który właśnie nadchodzi lub już się rozpoczął. Oba człony tego wyrażenia zrosły się bardzo wcześnie w jeden wyraz o zatartej strukturze wewnętrznej, czyli o nieprzejrzystej etymologii. Dlatego już w XV w. spotykamy dopełniacz dzi(e)ńsia, przekształcone później w dzisia, dzisiå(j), zamiast oczekiwanej (ale zanikłej już w czasach przedpiśmiennych) formy z odmianą obu członów: mianownik *dnie‐ś, dopełniacz *dnia‐siego. Była też możliwa odwrotna kolejność członów – i wtedy odmieniały się oba: staropolskie siego dnia oznaczało ‘teraz, obecnie, dziś’ (patrz rosyjskie segódnˊa, w którym literę g wymawia się jako /v/).

We wczesnej polszczyźnie istniał też przymiotnik dzisi (z wariantami dziś, dziszy), zastąpiony później przez bardziej rozbudowaną formę dzisiejszy. Przetrwał on w tautologicznych zwrotach po dziś dzień, od dzisiaj dnia (w XVI w. mówiono od/do dzisiå dnia, ale także np. dzisich lat ‘w dzisiejszych czasach’). Innym śladem zaimka * był staropolski zwrot lato‐sie ‘tego roku’ (dosłownie ‘[w] to lato’), skrócony do latoś i używany po dziś dzień żartobliwie lub w stylizacji gwarowej. Kontrastował on z innym zapomnianym słowem, łoni < prasłowiańskie *olni ‘zeszłego roku’ (patrz gwarowe łońskiego roku). Istniał również przymiotnik latosi ‘tegoroczny’. Można też wspomnieć o wyrażeniu ni to, ni sio, w którym zachował się cień formy rodzaju nijakiego sie, aczkolwiek w zniekształconej postaci. Inne zwroty tego typu to tam i sam ‘w tę i z powrotem’, taki, siaki i owaki albo tak czy siak (tożsamy znaczeniowo z wariantem tak czy owak).

Tu wreszcie możemy się zająć tradycyjnym życzeniem noworocznym, które brzmi do siego roku. Łatwo zrozumieć, co oznaczało, zwłaszcza jeśli weźmiemy pod uwagę, że używane było pierwotnie w okolicach wigilii Bożego Narodzenia wraz z życzeniami wesołych świąt… i do siego roku, czyli „abyśmy zdrowi i zadowoleni dożyli nadchodzącego roku”. W Kazaniach gnieźnieńskich, spisanych na początku XV w. (co czyni z nich jeden z najstarszych zabytków literackiej polszczyzny), mamy następujący fragment:

A przezto, miłe dziatki, poprośmy dzisia świętego Jana naszym siercem nabożnym, abyć on za nami, za grzesznymi Krysta prosił, abyć on raczył nas siego dnia i siego roku we zdrowi, wiesieli dopuścić […].

Co kaznodzieja miał na myśli? Oczywiście „zarówno teraz, jak i przez cały ten rok”. Forma siego zapewne już podówczas była odczuwana jako stylistycznie nacechowana i rezerwowana na odświętne okazje; w każdym razie nie była częsta. Wyrażenie takie jak aże do siego dnia używane było dla oddania łacińskiego usque in hodiernum diem, czyli ‘aż po dziś dzień’; miało więc charakter utartej formuły.

Dzisiejsze do siego roku to relikt pamiętający najstarszy okres historii naszego języka; należy mu się szacunek. Dlatego upraszamy wszystkich, którzy decydują się nadal go używać, o niezniekształcanie jego formy. Użytkownicy języka, kiedy natykają się na zwrot, którego nie rozumieją, często – zamiast dociekać metodami naukowymi, z czym mają do czynienia – próbują go sobie racjonalizować za pomocą etymologii ludowej, czyli skojarzeń z pozoru sensownych, ale niezgodnych z rzeczywistością (patrz przykłady omawiane już kilkakrotnie tu i ówdzie). W ten sposób wyobrażono sobie fikcyjną gospodynię o imieniu Dosia, tak pracowitą i zapobiegliwą, że „Dosi rok” stał się synonimem dostatku i pomyślności. Widoczne w nagłówku noworoczne pocztówki z 1962 r., choć zaprojektowane przez znakomitego Bohdana Butenkę, utrwalają ten wykolejony uzus, dlatego nie możemy ich pochwalić od strony językowej.

Zgodnie z misją portalu Eksperyment Myślowy promujemy etymologię naukową, dlatego cały zespół autorski życzy naszym drogim Czytelnikom, aby nie tylko dotrwali DO SIEGO ROKU, który nadejdzie już za kilka godzin, ale żeby mogli sobie mówić przez cały nowy rok: „Zacnie nam się latoś wiedzie!”

Próżnia, (nie)byt skomplikowany. Część 3: Próżnie relatywistyczne

Pozostałe części cyklu

Część 1: Próżnie filozofów i eksperymentatorów
Część 2: Próżnie kosmiczne
Część 4: Próżnie kwantowe

Wszechświat w oparach eteru

Jeśli podsumować wszystkie źródła masy Wszechświata (wliczając te, o których tylko wiemy, że istnieją, ale nie znamy ich natury), jego średnia gęstość wynosi 9,9 · 10–27 kg/m3. Odpowiada to masie 5,9 protonu na metr sześcienny, aczkolwiek materia barionowa – taka jak protony, neutrony i zbudowane z nich jądra atomowe (a zatem materiał, z którego składa się Ziemia i nasze organizmy) – wnosi ok. 5% wkładu w masę całkowitą. Gęstość powietrza w normalnych warunkach na poziomie morza wynosi 1,293 kg/m3, łatwo więc policzyć, że Wszechświat jest średnio 130 kwadrylionów razy rzadszy niż powietrze. Statystycznie rzecz biorąc, Wszechświat stanowi próżnię niemal doskonałą. To że istnieją w nim w ogóle jakiekolwiek struktury, od prostych związków chemicznych po gwiazdy, planety i życie, wynika z lokalnych niejednorodności rozkładu masy. Tu i ówdzie mamy rozrzucone wśród pustki wysepki materii na tyle gęstej, by zapoczątkować procesy samoorganizacji.

Ale czym jest ośrodek, w którym istnieje materia, jeśli sam nie jest materią? W XIX w. przyjmowano zwykle tradycyjne rozwiązanie w duchu Arystotelesa i jego następców. Sądzono mianowicie, że przestrzeń między wszelkimi obiektami materialnymi (nie wyłączając atomów i molekuł) wypełnia w sposób ciągły i jednorodny nieściśliwa substancja zwana eterem. Koncepcja ta pasowała do rozwijanej wówczas teorii oddziaływań elektromagnetycznych – elektrodynamiki. Od lat sześćdziesiątych XIX w., dzięki pracom Jamesa Clerka Maxwella, wiedziano o istnieniu fal elektromagnetycznych i o tym, że światło jest także taką falą, rozchodzącą się w przestrzeni ze skończoną prędkością c wynoszącą około 300 000 km/s. A ponieważ wszystkie znane wcześniej zjawiska falowe miały charakter drgań mechanicznych jakiegoś ośrodka, wydawało się logiczne, że fale elektromagnetyczne należy interpretować jako drgania „eteru światłonośnego”, zwanego też „eterem elektromagnetycznym”.1

Zaskakująca niezmienność

Hipotetyczny eter był substancją nieuchwytną, wymykającą się bezpośrednim obserwacjom. Można jednak było podjąć próby wykrycia efektów ruchu względem eteru. Średnia prędkość orbitalna Ziemi to 29,8 km/s. Jeżeli c jest prędkością rozchodzenia się fal elektromagnetycznych względem eteru, to z punktu widzenia obserwatora na Ziemi (który także porusza się względem eteru) prędkość światła powinna się nieco zmieniać w zależności od kierunku, w którym porusza się światło. Różnice takie miał wykryć przeprowadzony w 1887 r. eksperyment Alberta Michelsona i Edwarda Morleya z użyciem superczułego interferometru, porównującego takie same fale świetlne wysyłane w prostopadłych do siebie kierunkach i odbijane z powrotem w kierunku źródła. Doświadczenie to, wielokrotnie powtarzane i przeprowadzane w różnych wariantach z rosnącą precyzją aż do naszych czasów, przyniosło zaskakujący wynik: pomiar prędkości światła daje identyczny wynik dla każdego obserwatora niezależnie od jego prędkości własnej.

Niezmiennicza stałość prędkości światła wydawała się sprzeczna ze zdrowym rozsądkiem. Aby wyjaśnić rozbieżność między przewidywaniami teorii elektromagnetyzmu a doświadczeniem, w roku 1889 George Francis FitzGerald zasugerował, że ciała poruszające się względem eteru ulegają skróceniu w kierunku ruchu. Trzy lata później Hendrik Lorentz zaproponował ogólniejszy układ transformacji, zgodnie z którym nie tylko długość, ale i upływ czasu miały ulegać zmianie dla obiektów w ruchu (w tym celu Lorentz wprowadził zmienną pomocniczą zwaną „czasem lokalnym”). Dzięki tym zabiegom równania Maxwella pozostawały niezmienne dla każdego obserwatora inercjalnego (poruszającego się swobodnie ze stałą prędkością).

Postulowane zmiany długości i mierzonych odcinków czasu były praktycznie niezauważalne dla prędkości małych w porównaniu z prędkością światła; odgrywały istotną rolę dopiero dla prędkości naprawdę dużych, a zwłaszcza bliskich c. Cały czas było to łatanie teorii eteru za pomocą poprawek wprowadzanych ad hoc. Powstawała w ten sposób dopracowana przez Lorentza i Henriego Poincarégo konstrukcja matematyczna wyjaśniająca, dlaczego eksperymenty nie pozwalają odróżnić układów „w spoczynku” (nieruchomych względem eteru) od poruszających się ze stałą prędkością.2

Ryc. 1.

Einstein odstawia eter

W 1905 r. Albert Einstein poszedł o krok dalej. Skoro dzięki uwzględnieniu transformacji Lorentza eter staje się niewykrywalny, to po diabła w ogóle komu potrzebny taki byt? Działanie transformacji nie zależy od istnienia eteru. Jeśli obserwatorka A porusza się względem obserwatora B (albo, co na jedno wychodzi, obserwator B porusza się względem obserwatorki A), to dokonywane przez nich obserwacje i pomiary odległości oraz czasu dla tych samych zdarzeń będą różne, ale powiązane za pomocą transformacji Lorentza.3 W każdym układzie inercjalnym pomiar prędkości tego samego impulsu światła da ten sam wynik (gwarantują to równania Lorentza), ale nie dotyczy to obiektów poruszających się wolniej niż światło. Inaczej niż w fizyce Galileusza i Newtona, złożenie dwu prędkości w tym samym kierunku nie jest ich sumą, tylko operacją dającą wynik mniejszy niż suma, a w szczególności nieprzekraczający c niezależnie od tego, ile prędkości złożymy.

Brak absolutnego układu odniesienia dotyczy nie tylko wymiarów przestrzennych, ale i czasu. Nie ma na przykład absolutnej równoczesności zdarzeń. Zdarzenia rozdzielone w przestrzeni, a obserwowane jako równoczesne przez A, nie będą równoczesne z punktu widzenia B. Czas nie jest czymś niezależnym od wymiarów przestrzennych i płynącym jednakowo w każdym punkcie Wszechświata, tylko dodatkowym, czwartym wymiarem tzw. czasoprzestrzeni Minkowskiego. Transformacje Lorentza, opisujące związki między obrazami świata różnych obserwatorów inercjalnych, odpowiadają szczególnym przekształceniom tej czasoprzestrzeni na samą siebie – obrotom hiperbolicznym. Wszystkie takie obrazy świata obserwowane w różnych układach odniesienia są równouprawnione i jednakowo rzeczywiste: nie dzielą się na „prawdziwe” i „pozorne”.

Tak powstała szczególna teoria względności (STW). Eter nie jest w niej do niczego potrzebny. Magnetyczna i elektryczna składowa pola elektromagnetycznego są różnie postrzegane przez różnych obserwatorów, ale nadal są od siebie nawzajem zależne w sposób opisany przez równania Maxwella. Ta sama fala elektromagnetyczna ma dla różnych obserwatorów różną długość/częstotliwość, ale w każdym układzie odniesienia rozchodzi się z tą samą uniwersalną prędkością. To nie drgający ośrodek wypełniający przestrzeń ma dziwne właściwości, tylko czasoprzestrzeń zdefiniowana w STW różni się od tego, co dawniej wydawało się bezdyskusyjnie oczywiste.

Z pozoru „każdy widzi”, że przestrzeń jest trójwymiarowa, a ruch oznacza zmianę położenia obiektu w niezmiennej przestrzeni w różnych momentach płynącego sobie niezależnie czasu. Jednak przekonanie, że coś jest bezsprzecznie zgodne z rzeczywistością, może być tylko złudzeniem wynikającym z ograniczoności naszego codziennego doświadczenia: na przykład zazwyczaj nie poruszamy się względem innych ludzi z prędkościami zbliżonymi do c. Nawet lecąc załogowym pojazdem kosmicznym na Księżyc potrzebujemy mniej więcej trzech dni, żeby dotrzeć w jego pobliże. Światło pokonuje drogę z Ziemi na Księżyc w 1,3 sekundy.

Czym jest lub nie jest czasoprzestrzeń?

W szczególnej teorii względności Einsteina pola fizyczne przenikające przestrzeń nie potrzebują specjalnego ośrodka materialnego. Są funkcjami przedstawiającymi efekty oddziaływań w zależności od położenia w czasie i przestrzeni, przy czym pomiary tych położeń są względne – zależą od ruchu obserwatorów. Czasoprzestrzeń Minkowskiego, choć niesprowadzalna do zwykłej przestrzeni euklidesowej, jest płaska i taka sama w każdym punkcie – a zatem niezbyt skomplikowana z matematycznego punktu widzenia. Jest areną zachodzenia zjawisk takich jak pole elektromagnetyczne albo pomiary odległości i przedziałów czasu dokonywane przez obserwatorów poruszających się ruchem jednostajnym po liniach prostych (transformacje Lorentza nie deformują tej „prostolinijności”). Można z powodzeniem założyć, że czasoprzestrzeń jest czystą geometrią – zbiorem relacji pozwalających wiązać ze sobą pomiary dokonywane w różnych układach odniesienia. STW nie odpowiada natomiast na pytanie, czy i czym czasoprzestrzeń jest wypełniona.

Masa jest w STW ważna o tyle, że zależą od niej pęd i energia obiektów fizycznych. Z relacji między pędem a energią wynika koncepcja energii spoczynkowej E0 przypisywanej obiektowi o masie m0 także w układzie odniesienia, w którym pęd tego obiektu jest zerowy (tzn. jest on nieruchomy względem obserwatora). Ten związek między masą a energią, którego znaczenie wykracza daleko poza STW, opisuje sławne równanie: E0 = m0 c2 (albo, jeśli kto woli, m0 = E0/c2), wyprowadzone przez Einsteina w 1905 r.4 Ale szczególna teoria względności pomija coś, co w naszym Wszechświecie z całą pewnością pomijalne nie jest: nie opisuje powszechnie występującego wzajemnego oddziaływania mas, czyli grawitacji, która powoduje, że obserwatorzy ulegają przyśpieszeniom, a zatem ich układy odniesienia nie są inercjalne.

Grawitacja jako geometria

Einstein pracował kolejne dziesięć lat nad rozszerzoną wersją teorii, która uwzględniałaby zjawisko grawitacji i pozwalała opisać związki między wszelkimi układami odniesienia, także nieinercjalnymi. Rezultatem była ogłoszona w 1915 r. ogólna teoria względności (OTW). Grawitacja stanowi w niej właściwość geometryczną samej czasoprzestrzeni – odpowiada mianowicie jej krzywiźnie. Opis matematyczny zakrzywionej czterowymiarowej czasoprzestrzeni OTW nie jest łatwy; wymaga użycia rachunku tensorowego, ale mówiąc najprościej, jak się da: obecność masy/energii i naprężenia/ciśnienia objawia się jako zakrzywienie czasoprzestrzeni, a z kolei od tego zakrzywienia zależy ruch masy/energii. W otoczeniu masywnego ciała o dużej gęstości czasoprzestrzeń zakrzywia się bardziej niż w sąsiedztwie masy mniejszej lub bardziej rozproszonej.

Ziemia nie porusza się względem odległych gwiazd jednostajnym ruchem prostoliniowym, ale wraz z innymi obiektami Układu Słonecznego orbituje wokół wspólnego środka ciężkości. W naszym zakątku czasoprzestrzeń jest zakrzywiona wskutek obecności wielkich i gęstych skupisk materii (przede wszystkim ogromnej masy Słońca). Ziemia „spada swobodnie” po tzw. linii geodezyjnej5, co w czasoprzestrzeni płaskiej (jak w STW) oznaczałoby ruch po prostej. Jednak z naszej perspektywy obserwacyjnej postrzegamy jej trajektorię (a właściwie rzut trajektorii czasoprzestrzennej na przestrzeń trójwymiarową) jako krążenie po zamkniętej orbicie – w przybliżeniu eliptycznej.

Przewidywania OTW (obserwowalne efekty zakrzywienia czasu i przestrzeni) są różnorodne. Jeśli dwoje obserwatorów wyposażonych w identyczne zegary ulokuje się na szczycie stumetrowej wieży (obserwatorka A) i u jej podnóża (obserwator B), to A stwierdzi, że zegar B spóźnia się nieco względem jej zegara. Różnica – wykrywalna przy współczesnych metodach precyzyjnego pomiaru czasu – wynosi prawie jedną nanosekundę na dobę i wynika z faktu, że natężenie pola grawitacyjnego maleje wraz z odległością od Ziemi. Fotony nie posiadają masy, ale niosą energię i pęd, a zatem także zachowują się zgodnie z równaniami OTW. W pobliżu wielkich mas ich tory w zauważalny sposób ulegają zakrzywieniu. Jeśli ogromne masy podlegają potężnym przyśpieszeniom, jak na przykład podczas połączenia dwu masywnych czarnych dziur, część energii układu zostaje wypromieniowana w postaci rozchodzących się z prędkością światła deformacji czasoprzestrzeni – fal grawitacyjnych.

Wszystkie wspomniane wyżej zjawiska zostały naprawdę zaobserwowane. Mają nawet znaczenie praktyczne, bo „efekty specjalne” wynikające ze szczególnej i ogólnej teorii względności trzeba koniecznie brać pod uwagę choćby przy kalibrowaniu zegarów atomowych używanych w systemach nawigacji satelitarnej.

Ryc. 2.

Zagadkowy komponent Wszechświata

Innymi słowy – „pusta przestrzeń” w OTW nie jest tylko tłem dla zdarzeń, ale czymś w rodzaju aktywnego uczestnika zjawisk fizycznych. Czy oprócz krzywizny ma ona jakieś inne istotne właściwości? Spójrzmy na Wszechświat jako na całość. Zawiera on galaktyki pogrupowane w gromady i supergromady. Zakrzywiają one czasoprzestrzeń lokalnie, ale dają także pewien wkład w uśrednioną krzywiznę całego Wszechświata, który – jak wiemy od prawie stu lat – rozszerza się, czyli ulega ekspansji. Gęstość zawartej w nim masy/energii decyduje o tym, jaka jest globalna geometria Wszechświata: otwarta (krzywizna ujemna), zamknięta (krzywizna dodatnia) czy płaska (krzywizna zerowa). Z pomiarów promieniowania mikrofalowego tła prowadzonych od końca XX w. przez misje kosmologiczne (sondy COBE, WMAP i Planck) wynika, że obserwowalny Wszechświat jest w największej skali praktycznie płaski. Ale jeśli uwzględnimy wkład, jaki dają zwykła materia, fotony, neutrina i wspomniana w poprzednim odcinku ciemna materia, pozostaje dodatkowo ok. 68% uśrednionej gęstości Wszechświata (czyli ok. 6,7 · 10–27 kg/m3), które musi się skądś brać, żeby „wypłaszczyć” Wszechświat. Jest to tak zwana ciemna energia, czyli gęstość masy/energii „pustej przestrzeni”.

Ekspansja Wszechświata nie polega na tym, że galaktyki rozbiegają się promieniście od jakiegoś centralnego punktu jak odłamki granatu. Rozszerza się przestrzeń, w której są zanurzone. Nie ma czegoś takiego jak miejsce, gdzie zaczęła się ekspansja. Zaczęła się wszędzie – żaden punkt Wszechświata nie jest pod tym względem wyróżniony. Masa materii i energia promieniowania, wypełniające Wszechświat, ulegają coraz większemu rozproszeniu. Ilość materii pozostaje z grubsza ta sama, więc jej średnia gęstość maleje. Długość fali promieniowania tła rośnie. Natomiast gęstość energii próżni pozostaje niezmienna i nie „rozcieńcza się” w miarę puchnięcia przestrzeni, bo jest jej stałą właściwością: in więcej próżni, tym więcej ciemnej energii. Ma to wpływ na tempo ekspansji Wszechświata. Z równań opisujących ewolucję dynamicznego wszechświata (wyprowadzonych w 1922 r. przez Aleksandra Friedmana na podstawie OTW) wynika, że jeśli gęstość energii próżni jest większa od zera, to wszechświat (niezależnie od tego, jaka jest jego geometria) może się rozszerzać z narastającą prędkością.

Z pomiarów prędkości ucieczki odległych obiektów kosmicznych wynika, że około 5 miliardów lat temu nasz Wszechświat wszedł w stadium ewolucyjne zdominowane przez ciemną energię, co oznacza, że jego ekspansja zaczęła przyśpieszać. Tak przynajmniej opisuje jego obecny stan najpopularniejszy obecnie model ΛCDM. Symbol Λ (lambda) oznacza stałą związaną z gęstością energii próżni (znaną też z przyczyn historycznych jako stała kosmologiczna Einsteina)6, a CDM to cold dark matter, czyli „zimna ciemna materia”.7 Według wspomnianego modelu te dwa składniki odpowiadają łącznie za ok. 95% masy/energii Wszechświata na obecnym etapie jego istnienia. Dość frustrujący jest fakt, że o żadnym z nich nie jesteśmy w stanie powiedzieć nic pewnego. Z drugiej jednak strony – oznacza to także, że przed fizyką i kosmologią stoi jeszcze wiele wyzwań.

Ryc. 3.

Konkluzje

Podsumowując: „próżnię” współczesnej fizyki najpierw utożsamiano z eterem światłonośnym wypełniającym równomiernie przestrzeń trójwymiarową. Kiedy się okazało, że teoria eteru stwarza więcej problemów, niż rozwiązuje, zastąpiła ją w STW koncepcja płaskiej czterowymiarowej czasoprzestrzeni Minkowskiego jako pustego i biernego tła dla uzgadniania obserwacji między różnymi, ale równouprawnionymi układami odniesienia. W OTW tło zaczęło reagować na obecność w nim „rzeczy”, ulegając deformacjom geometrycznym i wpływając na rozkład i ruch masy/energii. Fale grawitacyjne pokazują, że same zaburzenia krzywizny czasoprzestrzeni mogą się propagować, przenosząc energię na odległości miliardów lat świetlnych. Ponadto „pusta przestrzeń” odznacza się małą, ale niezerową własną gęstością energii. Choć energia ta jest najbardziej rozproszonym składnikiem Wszechświata – wypełnia go bowiem równomiernie, nie tworząc nigdzie zagęszczeń i w skali lokalnej nie ujawniając swojego istnienia – to w skali kosmologicznej ma zasadniczy wpływ na ekspansję Wszechświata.

Nie oznacza to przemycenia teorii eteru z powrotem kuchennymi drzwiami, ponieważ „próżnia” relatywistyczno-kosmologiczna nie ma konkretnych właściwości przypisywanych dawniej eterowi – z jednym wyjątkiem: jest raczej „czymś” niż „niczym”. Wiemy już trochę o tym, co na jej temat ma do powiedzenia jedna z dwóch fundamentalnych teorii współczesnej fizyki – ogólna teoria względności w połączeniu z modelem kosmologicznym ekspandującego wszechświata. Żeby jednak obraz był kompletny, trzeba się przyjrzeć próżni również ze strony drugiej teorii fundamentalnej – fizyki kwantowej. Jest to inna perspektywa, rzucająca światło na całkiem inne aspekty pojęcia próżni. Ale o tym będzie mowa w kolejnym, ostatnim odcinku tego cyklu.

Przypisy

  1. Oczywiście eteru fizycznego (ani też substancji, o której spekulowali filozofowie starożytni) nie należy mylić z eterami jako grupą związków chemicznych. Należy do niej eter dietylowy (CH3−CH2−O−CH2−CH3), potocznie zwany po prostu eterem, używany dawniej do znieczulania ogólnego, a także jako środek odurzający. ↩︎
  2. Lorentz i Poincaré byli o włos od sformułowania szczególnej teorii względności. Zabrakło im tylko śmiałości intelektualnej, aby całkowicie zrezygnować z pojęcia eteru i gruntownie zrewidować koncepcje czasu i przestrzeni. ↩︎
  3. Niezależny od układu odniesienia jest tzw. interwał czasoprzestrzenny, będący uogólnieniem pojęcia odległości w czasoprzestrzeni Minkowskiego. ↩︎
  4. Ta równoważność masy i energii oznacza, że masę (spoczynkową) obiektu fizycznego można utożsamiać z energią zamkniętą w małym obszarze przestrzeni. Dlatego masa układu nie jest zwykłą sumą mas spoczynkowych jego składników, ale zależy też od różnych form energii wewnętrznej układu (energii kinetycznej składników względem układu traktowanego jako nieruchomy i energii potencjalnej oddziaływań między nimi). Można to pokazać szczególnie dobitnie na przykładzie jąder atomów albo cząstek zbudowanych z kwarków (jak proton). ↩︎
  5. W OTW geodezyjna (uogólnienie pojęcia prostej na przestrzeń zakrzywioną) opisuje zachowanie się ciała, na które działa wyłącznie grawitacja. ↩︎
  6. Einstein wprowadził ją jako składnik równań pola w OTW, aby umożliwiały one istnienie modelu wszechświata stacjonarnego (takiego, który ani się nie kurczy, ani nie rozszerza). Sam jednak uważał to rozwiązanie za arbitralne i nieeleganckie formalnie; poza tym, jak się później okazało, nie gwarantowało ono stabilnej równowagi statycznego wszechświata. W 1929 roku obserwacje Edwina Hubble‘a dowiodły zresztą, że nasz Wszechświat nie jest statyczny. Jednak człon zawierający stałą Λ powrócił, paradoksalnie, w równaniach modelu opisującego wszechświat ekspandujący z przyśpieszeniem. Równoważność masy i energii pozwala mówić o wkładzie gęstości energii próżni w gęstość masy Wszechświata. ↩︎
  7. Określenia „zimna” oznacza w tym przypadku materię „nierelatywistyczną”, czyli taką, której cząstki poruszają się względem okolicznych galaktyk i gwiazd z prędkościami znacznie mniejszymi niż c. ↩︎

Opis ilustracji

Ryc. 1. Dwóch Albertów: Michelson (1852–1931) i Einstein (1879–1955) w okresie, gdy powstawała szczególna teoria względności (pierwsze dziesięciolecie XX w.). Warto wiedzieć, że Michelson, laureat Nagrody Nobla w 1907 r., urodził się w rodzinie żydowsko-polskiej w Strzelnie (dzisiejsze województwo kujawsko-pomorskie), spędził tam pierwsze trzy lata życia i poczuwał się do związków rodzinnych z Polską. Einstein otrzymał Nobla nominalnie za rok 1921, ale przyznanie nagród za ten rok przesunięto na 1922. Einstein nie mógł być osobiście obecny na ceremonii wręczania Nobli ze względu na pobyt w krajach Dalekiego Wschodu. Widać tu typową dla Alberta Einsteina względność położenia w czasie i przestrzeni. (Domena publiczna).
Ryc. 2. Przykłady powierzchni dwuwymiarowych o krzywiźnie wewnętrznej (gaussowskiej) ujemnej (hiperboloida), zerowej (powierzchnia walcowa, lokalnie równoważna płaszczyźnie) i dodatniej (sfera). O krzywiźnie modeli Wszechświata (otwartego lub zamkniętego) mówimy w podobnym sensie, choć opis matematyczny krzywizny przestrzeni o większej liczbie wymiarów jest bardziej skomplikowany, a sama krzywizna trudniejsza do zwizualizowania. Autor grafiki: Nicoguaro. Źródło: Wikipedia (domena publiczna).
Ryc. 3. Wizualizacja dziejów ekspansji Wszechświata zrekonstruowanej na podstawie obserwacji sondy WMAP (Wilkinson Microwave Anisotropy Probe). Źródło: NASA/WMAP Science Team (licencja otwarta).

Lektura uzupełniająca

  • Zwięzłe wyjaśnienie podstaw eksperymentu Michelsona–Morleya. Ryszkowski 2018 (portal AstroNET).
  • Podstawowe pojęcia szczególnej teorii względności. Portal edukacyjny Media Nauka.
  • „Einstein dla laików″ (2016). Wykład popularnonaukowy prof. Andrzeja K. Wróblewskiego z okazji stulecia OTW. Youtube.
  • Jakie zjawiska relatywistyczne musi brać pod uwagę system GPS, żeby w ogóle nadawał się do użytku. Charzyński 2019 (Delta).
  • Nowości z dziedziny astronomii grawitacyjnej (obserwacje za pomocą detektorów fal grawitacyjnych. Urania.
  • Podsumowanie wyników obserwacji misji Planck. Kapuścińska 2013 (portal AstroNET)