Pozostałe części cyklu
Część 1: Próżnie filozofów i eksperymentatorów
Część 2: Próżnie kosmiczne
Część 3: Próżnie relatywistyczne
Jeszcze jedno spojrzenie na próżnię
Ponieważ jest to ostatni odcinek cyklu, warto sobie przypomnieć, jak ewoluowało pojęcie próżni. Zaczęliśmy od filozofów starożytnych: atomistów, którzy uważali, że przestrzeń między najmniejszymi cegiełkami materii jest pusta, i antyatomistów, dla których sama koncepcja pustki absolutnej była nie do przyjęcia, toteż próbowali ją wypełnić „żywiołem subtelnym” – eterem. Wiek XIX przyniósł z jednej strony tryumf atomowej teorii budowy materii, a z drugiej – renesans koncepcji eteru, tym razem jako ośrodka przenoszącego fale elektromagnetyczne. Szczególna teoria względności zanegowała istnienie eteru, a ogólna teoria względności skupiła się na geometrii czasoprzestrzeni, abstrahując od jej „wypełniacza”. Wiemy, że przestrzenie Wszechświata są na ogół niemal doskonale puste. Jednak teorie kosmologiczne znów zaczęły sugerować, że ta „pustka” odznacza się własną gęstością energii (lub, co na jedno wychodzi, masy), co prawda znikomą, ale jak się okazuje, dostatecznie dużą, żeby decydować o geometrii i ewolucji Wszechświata. Prawda, że to trochę skomplikowane jak na dyskusję o „niczym”?
Ale najdziwniejsze jeszcze przed nami. Dziś zajmiemy się koncepcją próżni w fizyce kwantowej. Fizyka współczesna to dyscyplina pełna zdumiewających odkryć, które zmieniły świat nie do poznania. Jak wszyscy wiedzą (albo powinni wiedzieć), w pierwszych dziesięcioleciach XX w. wybuchły w niej dwie rewolucje. Jedna (ogólna teoria względności) przyniosła spójną i zgodną z obserwacjami teorię grawitacji, a druga (mechanika kwantowa), która osiągnęła dojrzałość w latach dwudziestych i trzydziestych ubiegłego wieku, dostarczyła narzędzi pozwalających zrozumieć przedziwny świat cząstek subatomowych i elementarnych oraz oddziaływań między nimi. Rozwinęła się z niej fizyka kwantowa w szerszym sensie, obejmująca kilka nowych kierunków badań, takie jak kwantowa teoria pola czy informatyka kwantowa.
Świat niedookreślony i cząstki na granicy istnienia
Jednym z fundamentów fizyki kwantowej jest zasada nieoznaczoności, sformułowana w 1927 r. przez Wernera Heisenberga. Stwierdza ona, że istnieją pewne pary wielkości fizycznych (nazywamy je kanonicznie sprzężonymi), których dla tego samego obiektu nie można jednocześnie zmierzyć z dowolną dokładnością. Im precyzyjniej próbujemy ustalić jedną z nich, tym większy będzie rozrzut wyników pomiaru drugiej i vice versa. Wynika to z faktu, że cząstki materii zachowują się pod pewnymi względami jak pakiety falowe, których parametry (odpowiadające różnym klasycznym „wielkościom fizycznym”) nie mogą jednocześnie przybierać ściśle określonych wartości. Można jedynie stwierdzić, że wartości te z takim a takim prawdopodobieństwem mieszczą się w takim a takim zakresie.
Do takich sprzężonych wielkości należą pęd i położenie cząstki, o czym pisał niedawno Lucas Bergowsky (Zasada nieoznaczoności a zapis przyszłości). Możemy na przykład, dokonując pomiaru, „zmusić” cząstkę, żeby jej pęd stał się określony z dużą dokładnością, ale wtedy jej położenie staje się rozmyte: z równym prawdopodobieństwem może się ona znaleźć gdziekolwiek w sporym obszarze przestrzeni – czyli mówiąc po prostu, nie wiadomo, gdzie jej szukać. Inna taka para wielkości to energia i czas. Nietrwała cząstka ma pewien średni czas życia i masę (czyli także równoważną tej masie energię spoczynkową E0 = m0 c2). Jeśli jest dokładnie zlokalizowana w czasie, czyli rozpada się bardzo szybko, to jej masa/energia może przyjmować wartości z dość szerokiego zakresu (staje się „rozmyta”). Natomiast im bardziej rozciągnięta w czasie jest długość życia cząstki, tym dokładniej można określić jej masę/energię.
Przykładem może być najkrócej żyjąca i jednocześnie najcięższa cząstka elementarna w modelu standardowym: kwark t. Istnieje on zaledwie ok. 5 · 10–25 s – tak krótko, że ulega rozpadowi, zanim oddziaływania silne zdążą go związać z innymi kwarkami w cząstkę złożoną (hadron). Jest dzięki temu jedynym kwarkiem, którego rozpad można zaobserwować „na swobodzie”. Masa kwarku t, wyznaczona ostatnio z dużą dokładnością, odpowiada energii 172,52 ± 0,33 GeV. Jest to wartość średnia, od której masa kwarku ujawniająca się w zdarzeniach z jego udziałem może odbiegać o wielkość rzędu 0,65 GeV (powiązaną z czasem życia, co wynika wprost z zasady nieoznaczoności), czyli prawie o masę protonu. Nie jest to kwestia niedoskonałości technicznej pomiaru (która oczywiście też komplikuje ustalenie masy tak trudno uchwytnej cząstki), tylko faktu, że kwark t nie ma i nie może mieć jednoznacznie ustalonej masy; ma natomiast pewien stosunkowo szeroki rozkład prawdopodobieństwa masy z określonym powyżej maksimum i szacowanym rozrzutem wokół niego. Natomiast masę elektronu, który jest cząstką trwałą i może żyć dowolnie długo, możemy wyznaczyć z dokładnością sięgającą obecnie kilkunastu cyfr znaczących.1
Cząstki, czyli pola wzbudzone
Próżnię „klasyczną” mogą, oprócz cząstek, wypełniać pola, spośród których poznaliśmy już pole elektromagnetyczne (kombinacja pola elektrycznego i magnetycznego) i grawitacyjne. Pole to sposób, w jaki opisujemy zdolność oddziaływania na odległość. Pola klasyczne mają to do siebie, że w danym punkcie przyjmują pewną konkretną wielkość (skalarną, wektorową bądź tensorową). W szczególności wielkość ta może być równa zeru, co oznacza, że pole w danym punkcie całkowicie zanika. Jednak w fizyce kwantowej pole staje się czymś w rodzaju obiektu fizycznego. Zaciera się granica nie tylko między cząstką a odpowiadającą jej falą, ale także między cząstką/falą a zaburzeniem pola.
Cząstka może być traktowana jako stan wzbudzenia pola na tyle trwały, że można go zaobserwować wprost. A ponieważ same pola mają naturę kwantową, oddziaływania fizyczne są opisywane jako wymiana „cząstkopodobnych” fluktuacji, które zachodzą w tak krótkim czasie i w tak ograniczonej przestrzeni, że zgodnie z zasadą nieoznaczoności nie można im przypisać określonej energii/masy ani pędu/prędkości. Nie można ich także zaobserwować bezpośrednio. Używane w odniesieniu do nich określenie „cząstki wirtualne” rodzi w umyśle obraz pojawiających się i znikających cząstek materialnych. Jest to wyobrażenie nieco zwodnicze, bo aby cząstka mogła naprawdę zaistnieć, powinna mieć choć trochę określone parametry. Istnieją jednak realne (czy też „urealnione”) cząstki odpowiadające wirtualnym nośnikom oddziaływań: bezmasowe fotony i gluony, ciężkie bozony pośredniczące Z0 i W± oraz jeszcze masywniejsza cząstka Higgsa (patrz ryc. 1).
Model standardowy postuluje istnienie znacznej liczby pól odpowiadających poszczególnym rodzajom cząstek elementarnych, interpretowanych jako ich obserwowalne wzbudzenia. Są wśród nich pola sił odpowiedzialne za przenoszenie oddziaływań fundamentalnych (elektromagnetyczne, słabe i silne), natomiast skalarne pole Higgsa odpowiada za generowanie masy spoczynkowej niektórych cząstek elementarnych.
Można w zasadzie powiedzieć, że w rzeczywistości kwantowej nie ma nic prócz wszechobecnych pól, a to, co uznajemy za cząstki i oddziaływania, odpowiada ich wzbudzeniom i fluktuacjom. Jedno pole pozostaje wszakże poza zasięgiem modelu standardowego: pole grawitacyjne, którego opis nadal jest klasyczny. Nie stworzono dotąd powszechnie akceptowanej teorii grawitacji kwantowej. Nie zaobserwowano także hipotetycznych nośników oddziaływań grawitacyjnych – grawitonów. Ogólna teoria względności i fizyka kwantowa pozostają uzupełniającymi się opisami Wszechświata, między którymi brakuje spójnego związku (choć zakłada się, że wszystkie pola i związane z nimi cząstki oddziałują grawitacyjnie).
Lista pól, jakie współistnieją we Wszechświecie, oparta tym, czego wymaga modelu standardowy, nie jest z pewnością pełna. Przypomnijmy sobie, że nie wiemy, na przykład, czym jest ciemna materia, stanowiąca według modelu ΛCDM ok. 84% masy wszelkiej materii złożonej z cząstek. Model Standardowy z prawdopodobieństwem graniczącym z pewnością wymaga poważnego rozszerzenia, aby przynajmniej był zgodny z danymi kosmologicznymi (już pomijając kwestię „specjalnego statusu” oddziaływań grawitacyjnych).
Drgawki, na które nie ma lekarstwa
Stany pola mogą być opisane jako drgania – suma wzbudzeń oscylatorów harmonicznych o różnych częstotliwościach. Energia kinetyczna oscylatora klasycznego jest zawsze dodatnia, a jej średnia wartość może przybierać różne wartości w ciągłym zakresie, poczynając od zera – jak w przypadku wahadła zatrzymanego w punkcie równowagi i pozostającego w spoczynku. Natomiast oczekiwana energia oscylatora kwantowego może dla danej częstotliwości drgań przyjmować tylko pewne dyskretne poziomy energii różniące się o stałą wartość ΔE = hf, gdzie h jest stałą Plancka, a f częstotliwością. Taka określona porcja energii odpowiada pojedynczemu kwantowi pola. Jednak najniższa dopuszczalna energia oscylatora kwantowego (zwana energią punktu zerowego lub energią drgań zerowych) wynosi E0 = hf/2, czyli połowę pojedynczego kwantu. Nie można się jej pozbyć, bo najmniejszą porcją energii, jaka może być pochłonięta lub wypromieniowana w zdarzeniach fizycznych, jest właśnie jeden kwant.
Wskutek tego pole kwantowe nie może nigdzie całkowicie zaniknąć. Zanik oznaczałby bezruch: w danym miejscu pęd związany z oscylacjami osiągałby wartość dokładnie równą zeru, a tego zakazuje zasada nieoznaczoności Heisenberga. Wahadło kwantowe, w odróżnieniu od klasycznego, nigdy nie może jednocześnie znajdować się w punkcie równowagi (minimum energii potencjalnej) i w bezruchu. Dlatego na przykład ruchy cząstek nie zanikają całkowicie nawet dowolnie blisko temperatury zera bezwzględnego (0 K) .2
Próżnia jako zbiór fluktuacji
Zatem w przestrzeni wypełnionej polami, nawet wówczas, gdy nie ma w niej żadnych obserwowalnych wzbudzeń, które można by było zinterpretować jako obecność cząstek elementarnych, każde pole ma w dowolnym miejscu i czasie własną wewnętrzną energię, stanowiącą sumę energii drgań zerowych dla oscylatorów o różnych częstotliwościach. Fizyka kwantowa zmusza pola do nieustannych losowych fluktuacji. Zgodnie z zasadą nieoznaczoności, skrajnie krótkotrwałe zaburzenia oznaczają duży rozrzut energii, jak gdyby pole spontanicznie generowało „cząstki wirtualne”, a dokładniej – pary złożone z wirtualnej cząstki i antycząstyki, które znikają równie szybko, jak się pojawiły. Można powiedzieć, że pole podtrzymuje swoje istnienie, nieustannie oddziałując samo z sobą nawet pod nieobecność „prawdziwych” cząstek. Znów pojawia się tu coś, co przywodzi na myśl dziewiętnastowieczny eter, ale i tym razem analogia jest czysto powierzchowna. Próżnia kwantowa złożona z fluktuujących pól wygląda tak samo dla każdego obserwatora inercjalnego, nie można więc wykryć ruchu jednostajnego względem niej; zachowana jest także oczywiście stała prędkość światła.
Szereg potwierdzonych eksperymentalnie zjawisk fizycznych wskazuje na to, że fluktuacje próżni kwantowej są czymś rzeczywistym, a nie tylko nadinterpretacją modelu matematycznego. Klasycznym przykładem jest efekt Casimira (przewidziany teoretycznie przez holenderskiego fizyka Hendrika Casimira w 1948 r.), polegający na tym, że między dwiema nienaładowanymi, przewodzącymi płytkami zbliżonymi w próżni na odległość d mniejszą niż 1 μm powinna się pojawić mierzalna siła przyciągająca. Bierze się ona stąd, że na zewnątrz płytek fluktuacje próżni mogą mieć dowolną długość fali3, natomiast między nimi, jak we wnęce rezonansowej, wkład do energii próżni dają tylko oscylacje o długości fali 2d/n, czyli takie, których połówka okresu mieści się w d całkowitą liczbę razy. Zatem gęstość energii skwantowanego pola elektromagnetycznego na zewnątrz płytek będzie większa niż pomiędzy nimi, jak gdyby gaz złożony z wirtualnych fotonów wywierał ciśnienie naciskające na płytki z zewnątrz (gdzie gęstość tego „gazu” jest większa niż między płytkami).
Konflikt na pograniczu
Pewnym (delikatnie to ujmując) problemem jest fakt, że sumowanie wszystkich możliwych wkładów w całkowitą energię pól kwantowych każdego punktu w skończonym obszarze daje wynik formalnie dążący do nieskończoności. Nie ma zgody, co począć z tym fantem. Samo mechaniczne sumowanie jest procedurą cokolwiek naiwną. Pola mogą oddziaływać między sobą, zatem traktowanie ich jako niezależnych oscylatorów harmonicznych jest uproszczeniem. Wielu cząstek, a zatem i związanych z nimi pól, zapewne jeszcze nie znamy i nie wiemy, czy ich wkład w całkowitą energię próżni jest dodatni, czy ujemny (co dopuszczają niektóre hipotezy). Ponieważ nie dysponujemy kwantową teorią grawitacji, trudno przewidzieć konskwencje skwantowania oddziaływań grawitacyjnych, a właściwie samej czasoprzestrzeni.
W praktyce stosuje się wybieg polegający z grubsza na przyjęciu, że przy opisie zjawisk kwantowych interesują nas jedynie różnice energii względem pewnej energii odniesienia – obojętnie jakiej, choćby i nieskończonej (tak jak wzrost stojącego człowieka liczymy względem powierzchni, na której człowiek stoi, a nie na przykład jako odległość czubka jego głowy od środka Ziemi). Tu jednak pojawia się konflikt na styku fizyki kwantowej oraz kosmologii (opartej na ogólnej teorii względności). Przyjmijmy, że jakiś mechanizm – niekoniecznie zrozumiały przy obecnym stanie wiedzy – niweluje skutki niezerowej energii podstawowej pól w taki sposób, żeby nie wpływała ona ona na geometrię czasoprzestrzeni. Wtedy efektywna energia próżni z punktu widzenia OTW byłaby dokładnie zerowa. Jednak, jak widzieliśmy w poprzednim odcinku, obserwacje wskazują na istnienie równomiernie rozłożonej „ciemnej energii”, która jest niezbędna, żeby wyjaśnić z jednej strony płaską lub niemal płaską geometrię wielkoskalową Wszechświata, a z drugiej – jego przyśpieszającą ekspansję.
Intuicja podszeptuje, że jeśli próżnia kosmiczna posiada niezerową gęstość energii, a teorie kwantowe wymuszają niezerową energię podstawowych stanów pól, to między jednym a drugim faktem powinien istnieć jakiś związek. Byłoby przy tym miło, gdyby oczekiwania teoretyczne były zgodne z obserwacjami. Jednak wynikająca z pomiarów gęstość próżni (aczkolwiek kluczowa w modelach kosmologicznych) jest śmiesznie mała w porównaniu z tym, co wynika z kwantowej teorii pola.4 Przez „śmiesznie mała” należy rozumieć, że rozbieżność wynosi ok. 120 rzędów wielkości. Tym lepiej zresztą dla nas, a także dla Wszechświata. Gdyby gęstość próżni była zgodna z szacunkami teoretycznymi i wynosiła 1096 kg/m3, Wszechświat nie byłby – mówiąc eufemistycznie – miejscem, jakie znamy i lubimy.5
Próżnia coraz bardziej tajemnicza
Zapewne przy obecnym stanie wiedzy po prostu nie ma sensu stosowanie przewidywań fizyki kwantowej (która pomija oddziaływania grawitacyjne), aby przewidzieć zjawiska istotne dla OTW (która z kolei pomija kwantowe podejście do opisu oddziaływań grawitacyjnych).6 Poprzestańmy zatem na konstatacji, że całkowita energia próżni kwantowej nie jest na razie obliczalna (co nie ma wielkiego praktycznego znaczenia, dopóki nie rozważamy jej wpływu w skali kosmicznej), a ciemna energia ma gęstość bardzo małą, lecz większą od zera i na razie niewyprowadzalną z teorii pól kwantowych (co także nie jest wielkim zmartwieniem, dopóki nie próbujemy na serio zunifikować fundamentalnych teorii fizycznych).
Wielka unifikacja wciąż nam się wymyka. Nie dlatego, żeby brakowało hipotez – mamy raczej problem z ich nadmiarem. Wszystkie proponowane rozwiązania nie mogą jednocześnie być prawdziwe (choć mogą być – i być może są – jednocześnie fałszywe). Ale żeby porównać ich zgodność z empirią w celu oddzielenia ziarna od plew, trzeba by było rozstrzygających obserwacji i eksperymentów. Te, które przeprowadzono do tej pory, ujawniają tak doskonałą, że aż irytującą dokładność przewidywań zarówno OTW, jak i teorii kwantowych tam, gdzie są one stosowalne. Nie podpowiadają jednak, jak scalić te teorie w spójny opis wszystkich aspektów Wszechświata.
Przesłanie końcowe
Dotychczasowy rozwój fizyki w dużym stopniu polegał na przełamywaniu ograniczeń naszej naiwnej wyobraźni. Po każdym dużym kroku naprzód świat stawał się curiouser and curiouser (jak to ujął Lewis Carroll w Alicji w Krainie Czarów). Z punktu widzenia przedstawionych tu refleksji nad historią pojęcia próżni, czyli pustki tak doskonałej, jak to tylko możliwe, mamy do czynienia z interesującym paradoksem. Próżnia współczesna, z uwzględnieniem jej aspektów relatywistycznych, kosmologicznych i kwantowych, pozostaje zjawiskiem bardziej zagadkowym niż kiedykolwiek w przeszłości, choć zdawałoby się, że nie może istnieć nic prostszego. Być może trzeba poczekać na kolejny przełom w fizyce, zanim lepiej zrozumiemy, czym jest „nic”.
Przypisy
- Można to sobie wyobrazić na podstawie analogii z drgającą struną. Im krócej trwa jej drganie, tym trudniej określić, a nawet zdefiniować jego częstotliwość. Natomiast jeśli drganie obejmuje wiele okresów drgań struny, określenie częstotliwości nie nastręcza problemów. Wystarczy policzyć liczbę oscylacji w dłuższym okresie czasu i wykonać proste dzielenie (tyle a tyle cykli na sekundę). ↩︎
- Nie jest to jedyna ważna różnica między oscylatorem klasycznym a kwantowym. Na przykład ten drugi może z pewnym prawdopodobieństwem znaleźć się w obszarze zabronionym według modelu klasycznego („uciec″ ze studni potencjału, nie pobierając energii z zewnątrz). In a różnica polega na tym, że oscylujące wahadło spędza najwięcej czasu tam, gdzie porusza się najwolniej, a jego energia potencjalna jest największa, czyli blisko miejsc maksymalnego wychylenia, natomiast oscylator kwantowy z największym prawdopodobieństwem można znaleźć w otoczeniu stanu o najniższej energii potencjalnej. ↩︎
- Oczywiście ta „dowolność″ jest względna, bo w praktyce efekt Casimira bada się np. w komorze próżniowej, która też narzuca oscylacjom pewne warunki brzegowe. Ale w każdym razie zakres swobody jest dla nich znacznie większy niż w wąskiej szczelinie między płytkami. ↩︎
- Albo raczej zdaje się wynikać, bo założenia przyjmowane w próbach teoretycznego oszacowania całkowitej energii próżni zdecydowanie skłaniają do sceptycyzmu. ↩︎
- Odpowiada to mniej więcej domniemanej gęstości Wszechświata, kiedy jego wiek był rzędu czasu Plancka, czyli 5,39 · 10–44 s. Dla porównania: najgęstsze obiekty astronomiczne, jakie znamy (poza hipotetyczną osobliwością we wnętrzu czarnej dziury), czyli gwiazdy neutronowe, mają gęstość „zaledwie″ około 3,7–5,9 · 1017 kg/m3. Jest to nieco więcej niż gęstość materii wewnątrz jądra atomu. ↩︎
- Aczkolwiek od czasu do czasu ktoś próbuje; patrz Łach 2023 (Projekt Pulsar) o publikacji Tkatchenko & Fedorov 2023). ↩︎
Opis ilustracji
Ryc. 1. Siedemnaście cząstek „modelu standardowego”. Nie wszystkie podane masy są zgodne z aktualnymi oszacowaniami (co nie powinno dziwić, bo jest to dynamicznie rozwijający się obszar badań). Autor: Andrzej Barabasz (Chepry) 2012. Źródło: Wikimedia Commons (licencja CC BY-SA 3.0).
Ryc. 2. Efekt Casimira. Obszar między przewodzącymi płytkami narzuca ograniczenia na długość fali oscylacji (odpowiadających wirtualnym fotonom) w kierunku prostopadłym do płytek. Autor: Kyle Kinsgbury (aphyr) 2009 (fair use).
Lektura uzupełniająca
- Więcej o kwarku t. Adamczyk 2024 (kwantowo.pl).
- Dlaczego model standardowy jest teorią zbyt dobrą. Kowalski-Glikmann 2022 (Projekt Pulsar)
- Dla ambitnych czytelników: różne aspekty i odmiany efektu Casimira i jego możliwe znaczenie praktyczne. Stange, Campbell & Bishop 2021.
Trzy uwagi, w tym dwie mocno krytyczne.
1. Jest całkowitą nieprawdą, że „wiek XIX przyniósł […] tryumf atomowej teorii budowy materii”. Nic podobnego. Aż do początków XX wieku hipoteza atomistyczna była albo wprost odrzucana, albo co najwyżej traktowana jako niepotwierdzona hipoteza robocza, a nieliczni, którzy ją serio głosili, byli wyszydzani i wyśmiewani, jak Ludwik Boltzmann, co – być może – przyczyniło się do jego samobójczej śmierci. Wilhelm Ostwald, późniejszy laureta Nagrody Nobla w dziedzinie chemii, opublikował w 1889 monumentalną księgę „Grundriss der allgemeinen Chemie” („Zarys chemii ogólnej”) i z dumą podkreślał, że ani razu nie użył w niej słowa „atom”. Teoretyczne podstawy do zaakceptowania hipotezy atomistycznej dały dopiero prace Einsteina (1905) i Smoluchowskiego (1906) nad wyjaśnieniem ruchów Browna, a doświadczalne – prace Jean-Baptiste Perrina, który, opierając się na teorii Smoluchowskiego, wyznaczył stałą Avogadra (1908), za co w 1926 otrzymał Nagrodę Nobla z fizyki.
2. Ciemna energia do niczego nie „jest niezbędna”. Ciemna energia to jedynie najprostsze wyjaśnienie skądinąd bardzo ciekawych anomalii w obserwacjach odległych supernowych. Możliwe są inne wyjaśnienia: albo nie dość dobrze znamy własności tych supernowych (na przykład, są one zanieczyszczone pierwiastkami cięższymi, które zasysają od swojego towarzysza), albo przestrzeń rzeczywiście coraz szybciej się rozszerza, ale tylko lokalnie, gdyż, zupełnie przypadkowo, znajdujemy się w bąblu o średniej gęstości wyraźniej mniejszej, niż otoczenie. Jest zresztą z tuzin innych wyjaśnień, ale „ciemna energia”, „przyspieszona ekspansja”, „stała kosmologiczna”, „kwintesencja” i „wielkie rozdarcie” („Big Rip”) dają najlepsze nagłówki prasowe i największy hype, a że na obecnym etapie są kompletnie niepotwierdzalne (ani też nieobalalne, co poniekąd kwestionuje ich naukowość), mnóstwo fizyków, wygłodzonych brakiem danych obserwacyjnych, zajadle się na to rzuciło.
3. Jeśli chodzi o próżnię kwantową, to tu też jest pewne pomieszanie. Po pierwsze, kwantowa „próżnia” to stan kwantowy o najniższej energii. Jeśli, jak w przypadku pola Higgsa, najniższa energia odpowiada niezerowej gęstości tego pola, „próżnia kwantowa” odpowiada przestrzeni niepustej, gdyż wypełnionej kondensatem Higgsa (zaobserwowane w CERN cząstki Higgsa to są wzbudzenia tego pola). Po drugie jednak, w mechanizmie opisanym w artykule, pojawiają się fluktuacje próżni, czyli wirtualne pary cząstka-antycząstka, żyjące na tyle krótko, by nie złamać zasady nieoznaczoności, ale dające mierzalne efekty w różnych zjawiskach kwantowych (efekt Casimira, ale nie tylko). To są dwa różne mechanizmy sprawiające, że (geometryczna) próżnia jest niepusta. Porównywanie tego zoologu fluktuujących pól kwantowych do eteru wcale nie jest takie głupie, gdyż w istocie stanowią one ośrodek, w którym rozprzestrzeniają się fale elektromagnetyczne. Nie jest to eter mechaniczny, którego drgania miałyby manifestować się jako fale elektromagnetyczne (światło), ale z pewnością fale elektromagnetyczne rozprzestrzeniają się w ośrodku niepustym.
Z pokorą przyjmuję uwagi specjalisty. Szczerze muszę stwierdzić, że nie zdawałem sobie sprawy z tak długiego czasu pozostawania teorii atomowej poza mainstreamem. Przecież statystyczne podejście Maxwella i Boltzmanna (lata sześćdziesiąte/siedemdziesiąte XIX w.) zakłada realne istnienie dyskretnych molekuł o różnych prędkościach i zderzeń sprężystych między nimi. Czy Maxwell też był traktowany jako wariat? Jak to odbierał ówczesny świat naukowy? Pytam, bo nie mam pojęcia. O wyznaczeniu stałej Avogadra przez Perrina (i późniejszym Noblu za to osiągnięcie) wspominałem w poprzednim odcinku.
ad. 2.
Ponieważ natura informacyjna nie znosi próżni (nomen omen) i całkowicie niewyjaśnialnych zjawisk, wymyśliliśmy ad hoc „wytrych” w postaci ciemnej energii/materii, które jak potencjometr regulują dynamikę Wszechświata. Podobnie zresztą jak Einstein i jego stała kosmologiczna. Wytrych jest łatwy do objaśnienia i prosty w stosowaniu. A że nazywa się clickbajtowo to nie jego wina. Czyżby uważał Pan, że zagęszczenia lokalnego bąbla czasoprzestrzennego to bardziej racjonalne wyjaśnienie anomalii zachowania supernowych niż nasza oswojona już ciemna energia? Albo transfer superciężkiej materii między supernowymi? Jeśli nie umiemy czegoś wytłumaczyć to chociaż trzymajmy się brzytwy Ockhama i nie kombinujmy za bardzo z tymi bajkami.
Melduję, że [wróciwszy do kondycji zdrowotnej umożliwiające czytanie ze zrozumieniem] jako entuzjasta – nadal dyletant > przeczytałem CAŁĄ serię! 😉 Będę do niej wracał po inspiracje i głębsze rozumienie. Dziękuję!