Próżnia, (nie)byt skomplikowany. Część 2: Próżnie kosmiczne

Pozostałe części cyklu

Część 1: Próżnie filozofów i eksperymentatorów
Część 3: Próżnie relatywistyczne
Część 4: Próżnie kwantowe

Jak policzono cząsteczki gazu

W pierwszym odcinku pisałem o tym, jak odłożywszy na bok rozważania filozofów, którzy łamali sobie głowę nad tym, czym jest próżnia, próbując apriorycznie ustalić możliwość bądź niemożność jej istnienia, badacze zajęli się próżnią empirycznie, czyli po prostu spróbowali ją uzyskać. Podejście takie okazało się owocne. Nauka ruszyła z miejsca, kiedy uczeni oswoili się z myślą, że „moc rozumu”, choćbyśmy nie wiem jak wytężali mózg, nie jest w stanie zastąpić obserwacji i eksperymentów.

Wspomniałem, że najniższe ciśnienie uzyskane dotąd w próbach wytworzenia sztucznej próżni to ok. 10–17 ciśnienia atmosferycznego. Oznacza to, że w centymetrze sześciennym przestrzeni mamy kilkaset poruszających się molekuł gazu. Jeżeli podzielimy sobie centymetr sześcienny na milimetry sześcienne, będzie ich tysiąc – to znaczy więcej niż molekuł. Zatem w dowolnej chwili z całą pewnością wiele komórek o krawędzi 1 mm nie zawiera ani jednej drobinki „zwykłej materii”. Jak zobaczymy, mogą one zawierać różne inne rzeczy, ale przynajmniej jeśli chodzi o bariony – protony i neutrony, z których zbudowane są jądra atomów – jest to próżnia doskonała.

Skąd znamy liczbę cząstek w objętości gazu o danym ciśnieniu? Dawni filozofowie nie mieli sposobu, żeby ją oszacować choćby w grubym przybliżeniu. Jednak od czasów Torricellego i Pascala nauka czyniła stopniowe postępy. Między XVII a XIX w. dzięki eksperymentom fizycznym powstały podwaliny teorii gazów i termodynamiki. Rozwijała się także chemia. W XVIII w. wiedziano już dość o budowie materii, żeby odróżniać pierwiastki od związków chemicznych, a w 1811 r. Amedeo Avogadro precyzyjnie rozróżnił pojęcia atomu (najmniejszej ilości pierwiastka chemicznego) i molekuły (cząsteczki związku chemicznego) oraz postawił następującą hipotezę: pod określonym ciśnieniem w określonej temperaturze dana objętość gazu zawiera stałą liczbę cząsteczek niezależnie od tego, o jakim gazie mówimy.1

W szczególności liczba molekuł gazu w objętości 0,0224 m3 (pod ciśnieniem 1 atm i w temperaturze 0°C) jest równa liczbie atomów węgla w 12 g tego pierwiastka albo liczbie molekuł w 32 g tlenu cząsteczkowego (O2). Taką ilość substancji, traktowaną jako jednostka „liczności materii”, nazywamy molem. Liczbę elementarnych składników substancji (atomów/cząsteczek) składających się na 1 mol oszacowano po raz pierwszy w 1865 r., ale dopiero na początku XX w. Jean-Baptiste Perrin, późniejszy noblista, wyznaczył ją eksperymentalnie na kilka sposobów i nazwał liczbą Avogadra (N0). Współczesna definicja mola to N0 = 6,02214076 · 1023 składników elementarnych. Znając N0 i równania opisujące związki między temperaturą, ciśnieniem i objętością gazów, potrafimy oszacować średnią liczbę cząstek w jednostce objętości zarówno w „warunkach normalnych”, jak i dla gazu skrajnie rozrzedzonego, czyli próżni w sensie technicznym.

Próżnia wokół Ziemi

Siedziba Europejskiej Organizacji Badań Jądrowych (CERN) mieści się na przedmieściach Genewy, ok. 1060 km „w prostej linii” od miejsca, gdzie piszę te słowa (okolice Poznania). Żeby znależć w przyrodzie próżnię doskonalszą niż ta wytworzona sztucznie przez naukowców z CERN, nie trzeba podróżować o wiele dalej. Trzeba tylko udać się pionowo w górę, a nie poziomo na południowy zachód.

Mniej więcej 400 km nad powierzchnią Ziemi orbitują dwie funkcjonujące obecnie załogowe stacje kosmiczne: ISS/MSK (International Space Station, czyli Międzynarodowa Stacja Kosmiczna) oraz chińska Tiangong (nazwa oznacza ‘niebiański pałac’). Znajdują się one w ośrodku, który uważamy za przestrzeń kosmiczną (zaczyna się ona umownie na wysokości 100 km, czyli na tzw. linii Kármána). Jest to jednak w rzeczywistości bardzo rozrzedzona górna warstwa atmosfery Ziemi – środkowy obszar tzw. termosfery. Ciśnienie gazu wokół ISS wynosi nieco ponad 1 μPa (jedną milionową paskala), jest zatem sto miliardów razy niższe niż ciśnienie powietrza na poziomie morza.2 Przewyższa natomiast stukrotnie ciśnienie próżni utrzymywanej w rurze akceleratora LHC.

Ryc. 1.

Gęstość materii w termosferze jest na tyle wysoka, że poruszające się w niej obiekty są zauważalnie spowalniane przez opór aerodynamiczny. Orbity załogowych stacji kosmicznych, pędzących z prędkością ok. 7,7 km/s, obniżałyby się o ok. 2 km na miesiąc, gdyby nie okresowe korekty za pomocą silników rakietowych. Próżnia wokół stacji orbitalnych jest gorąca, ponieważ zawarty w niej gaz rozgrzewa się, absorbując wysokoenergetyczne składniki promieniowania Słońca (promieniowanie rentgenowskie i skrajny nadfiolet). Temperatura na wysokości 400 km wynosi około 720°C, ale może osiągać nawet 2000°C. Oczywiście nie oznacza to, że ISS może się rozgrzać do czerwoności lub stopić wskutek kontaktu z gorącym ośrodkiem, gdyż tak rozrzedzony gaz nie jest w stanie przekazać odczuwalnej ilości ciepła pancerzowi stacji ani skafandrom astronautów odbywających spacery kosmiczne. Jest tam zatem „gorąco” w sensie termodynamicznym, ale nie potocznym.

1000 km nad powierzchnią Ziemi próżnia kosmiczna odpowiada mniej więcej tej, która wypełnia rurę LHC. Jest to jednak nadal niesłychanie rozrzedzona otulina gazowa Ziemi. Oddalając się jeszcze bardziej od naszej planety, dotrzemy w końcu do obszaru położonego gdzieś w pół drogi do orbity Księżyca, gdzie molekuły gazu (przeważnie wodoru atomowego) przestają odczuwać przyciąganie ziemskie, ponieważ silniej działa na nie ciśnienie promieniowania Słońca. Tu naprawdę zanikają ostatnie ślady atmosfery, przechodząc w próżnię międzyplanetarną.

Próżnia w Układzie Słonecznym

Tam już panują już warunki nieosiągalne (przynajmniej przy obecnych możliwościach technicznych) w laboratoriach ziemskich. Na centymetr sześcienny ośrodka międzyplanetarnego przypada od pięciu do kilkudziesięciu drobinek materii. Nie jest to zwykły gaz, ale plazma przenosząca ładunki elektryczne i oddziałująca z magnetosferami obiektów Układu Słonecznego. W ogromnej większości składa się na nią wiatr słoneczny, czyli wyrzucane z górnych warstw atmosfery Słońca strumienie protonów, elektronów i cząstek α (jąder helu 4He) ze śladową domieszką zjonizowanych atomów cięższych pierwiastków. W okolicach Ziemi rozróżniamy wiatr wolny (stosunkowo gęsty, o zmiennym składzie i „wiejący” z prędkością wahającą się w zakresie 300–500 km/s)3 oraz wiatr szybki (bardziej rozrzedzony, o prędkości ok. 750 km/s). Źródłem pierwszego jest korona Słońca, drugi pochodzi z fotosfery, czyli tego, co uważamy za „powierzchnię″ naszej gwiazdy.

Inne składniki materii międzyplanetarnej to cząstki promieniowania kosmicznego przybywające spoza Układu Słonecznego i „pył kosmiczny”, czyli resztki materii, z której powstały planety, mikrofragmenty pozostałe z kolizji większych ciał, rozproszone resztki rozpadłych komet, a nawet materia pochodząca z przestrzeni międzygwiazdowej. Pył zawiera węgiel i jego związki, krzemiany, mikroskopijne kryształki lodu, związki żelaza i innych pierwiastków. Drobiny pyłu w kontakcie ze zjonizowanym gazem mogą stanowić podłoże dla reakcji chemicznych, czasem zdumiewająco skomplikowanych. Krótko mówiąc, choć próżnia międzyplanetarna jest doskonalsza niż jakakolwiek próżnia wytworzona sztucznie na Ziemi, nie jest to ani absolutna pustka, ani bierne medium, w którym nic się nie dzieje.

Próżnia międzygwiazdowa

Ale Układ Słoneczny, podobnie jak inne układy planetarne, których znamy już ponad cztery tysiące – a liczba ta stale rośnie – jest lokalną wyspą materii barionowej związanej pochodzeniem ze swoją gwiazdą centralną i stabilizowaną przez jej pole grawitacyjne. Nawet w jego „pustych” obszarach gęstość materii jest na ogół większa niż w przestrzeni dzielącej go od innych takich wysp. W ośrodku międzygwiezdnym Drogi Mlecznej materia jest rozłożona nierównomiernie. Większość obszarów wewnątrzgalaktycznych zawiera około jednej molekuły lub atomu na cm3, ale są też takie, gdzie ta liczba jest wielokrotnie wyższa. Głównymi składnikami materii międzygwiezdnej są produkty pierwotnej nukleosyntezy, czyli wodór i hel – neutralne lub zjonizowane (tzn. w postaci gazu i plazmy). Około 1% stanowi pył – drobiny materii zawierające cięższe pierwiastki („metale”, jak mówią astronomowie).

Wśród lokalnych zgęszczeń materii międzygwiazdowej wyróżniają się obłoki molekularne, zawierające szczególnie dużo gazu (w tym wodoru cząsteczkowego, H2) i pyłu. Typowa gęstość materii w takich obszarach (o średnicy od roku do kilkuset lat świetlnych) to kilkadziesiąt lub kilkaset cząsteczek na cm3, ale tworzą się w nich lokalne zgęszczenia zawierające od 10 tys. nawet do miliona cząsteczek w tej samej objętości. Obłoki molekularne bywają nazywane żłobkami lub wylęgarniami gwiazd, bo ze względu na swoją gęstość mogą wskutek jakiegoś zewnętrznego zaburzenia zapaść się pod wpływem własnej grawitacji, dając początek młodym gwiazdom. W ostatnich latach okazało się, że obłoki molekularne są także reaktorami chemicznymi, w których powstają setki złożonych związków węgla, wodoru, tlenu, azotu czy siarki. Pisał o tym Mirosław Dworniczak we wpisach Organiczne odpadki z fabryki gwiazd – część 2 oraz Kosmiczne laboratorium chemiczne – część 2); patrz też mój wpis, którego fragment poświęciłem międzygwiezdnej chemii organicznej. Proszę pamiętać, że wszystko to zachodzi w ośrodku, który na Ziemi kwalifikowałby się jako wysoka próżnia.

Ryc. 2.

Gaz i plazma zawarte w obłokach międzygwiazdowych mogą świecić – jak w przypadku mgławic emisyjnych, wzbudzanych promieniowaniem nadfioletowym pobliskiej gwiazdy. Inne z kolei widzimy jako ciemne chmury na tle odleglejszych gwiazd, bo mimo swojego rozrzedzenia bardzo skutecznie absorbują światło widzialne. Teleskopy kosmiczne Hubble’a i Jamesa Webba dostarczają spektakularnych zdjęć obłoków kosmicznych wszelkiego typu (patrz ryc. 2). Gdybyśmy mogli podróżować swobodnie po Galaktyce, to znalazłszy się głęboko wewnątrz obłoku międzygwiazdowego, nie zauważylibyśmy nic szczególnego, może oprócz przygaśnięcia światła dalekich gwiazd. Podobnie chmura, która z daleka ma określony, wyraźnie zarysowany kształt, uwypuklony przez cienie i refleksy światła, zmienia się w bezpostaciowe zamglenie, kiedy przelatujemy przez nią samolotem. Coś, co jest w zasadzie próżnią, przybiera zdumiewające kształty i mieni się barwami światła wskutek faktu, że oglądamy z bardzo daleka chmurę materii wprawdzie rozrzedzoną, ale ze względu na swoje ogromne rozmiary wywołującą efekty optyczne.

Próżnia międzygalaktyczna

Galaktyki to także wyspy materii związane grawitacyjnie (dlatego ich materia nie rozprasza się po całym Wszechświecie, tylko zgodnie krąży wokół wspólnego środka ciężkości. Należy zatem oczekiwać, że ośrodek międzygalaktyczny powinien być jeszcze bardziej rozrzedzony niż międzygwiazdowy. Tak jest w istocie. Gęstość materii barionowej (głównie atomowego wodoru i helu) poza galaktykami spada do około jednego atomu na m3 (innymi słowy, 0,000001 atomu na cm3), a pomiędzy gromadami galaktyk jest jeszcze niższa, rzędu 0,2 atomu na m3. Oznacza to, że w kilometrze sześciennym przestrzeni międzygalaktycznej rozproszonych jest nie więcej niż miliard atomów – mniej niż jedna stutysięczna nanograma zwykłej materii. Nanogram można sobie unaocznić jako średnią masę jednej komórki naszego ciała, czyli czegoś, czego nawet nie widzimy nieuzbrojonym okiem. Próżni bardziej zbliżonej do ideału niż pustki kosmiczne z dala od galaktyk nie ma już nigdzie indziej w dostępnej obserwacjom części Wszechświata.

Niemniej nawet ośrodek międzygalaktyczny nie jest całkowicie jednorodny i bierny. Istnieją w nim wielkoskalowe struktury złożone prawie z niczego. Zawiera on także składniki, o których dotychczas nie wspomniałem. Zacznijmy od tego, co oczywiste i dobrze widoczne: od światła. Promieniowanie gwiazd przenika Wszechświat. Gdybyśmy się znaleźli w przestrzeni międzygalaktycznej, to kierując teleskop w dowolną stronę, widzielibyśmy niezliczone galaktyki podobnie jak z Ziemi albo z teleskopów kosmicznych – właściwie nawet lepiej, bo nie przeszkadzałaby nam materia międzyplanetarna ani międzygwiazdowa. Strumienie fotonów emitowanych przez zbiorowiska gwiazd docierają stale nawet do miejsc oddalonych o setki tysięcy lat świetlnych od jakiejkolwiek galaktyki. Fotony nie mają co prawda masy spoczynkowej, ale niosą pęd i energię, a zatem nie można ich ignorować w bilansie zawartości próżni. Trudniejsze do wykrycia, ale za to wszechobecne, są także neutrina produkowane we wnętrzach gwiazd i przemierzające Wszechświat praktycznie bez przeszkód.

Skoro mowa o fotonach, nie wolno zapomnieć o mikrofalowym promieniowaniu tła. Jest ono reliktem z czasów, kiedy młody Wszechświat – mający wówczas 379 tys. lat – rozrzedził się i schłodził na tyle, że stał się przezroczysty dla promieniowania elektromagnetycznego (światło „oddzieliło się od materii”). Promieniowanie tła nadlatuje z każdego kierunku z tą samą charakterystyką: odpowiada ona widmu promieniowania ciała doskonale czarnego o temperaturze 2,725 K (co oznacza, że maksimum jego natężenia przypada na długość fali ok. 1 mm).4 Na każdy centymetr sześcienny Wszechświata, nawet w najgłębszych pustkach międzygalaktycznych, przypada w dowolnej chwili 411 fotonów mikrofalowego promieniowania tła i tylko jeden foton innego pochodzenia.

Mniej znanym zjawiskiem jest neutrinowe tło Wszechświata. W odróżnieniu od fotonów neutrina zaczęły przenikać materię supergęstego Wszechświata, kiedy jego wiek wynosił zaledwie sekundę. Szacuje się, że na każdy cm3 objętości Wszechświata przypada średnio ok. 339 reliktowych neutrin. Ze względu na ich niską energię i ogólnie słabe oddziaływanie neutrin ze zwykłą materią nie jesteśmy na razie w stanie wykryć ich bezpośrednio, ale wywierają one zauważalny wpływ na fluktuacje mikrofalowego promieniowania tła i rozkład materii we Wszechświecie. Neutrina nie są cząstkami bezmasowymi, ale ich masy są niezmiernie małe. Nie ma ekranów zdolnych efektywnie zatrzymać neutrina. Jeśli zamkniemy się w głębokiej kopalni, dwa kilometry pod powierzchnią Ziemi, nie dotrze do nas żaden proton czy foton pochodzenia kosmicznego, natomiast nadbiegające ze wszystkich stron neutrina tła będą nas przenikały tak samo, jak gdybyśmy się znajdowali w przestrzeni kosmicznej.

Ryc. 3.

Co jeszcze mamy we Wszechświecie?

Czy to już wszystko? Bynajmniej. Wiadomo, że materia barionowa (czyli „zwykłe” jądra atomowe i zbudowane z nich struktury) stanowi mniej niż jedną piątą masy materii we Wszechświecie. Z czego składa się reszta? Nie wiadomo. Jest to tak zwana ciemna materia, niewidoczna, bo nieemitująca i niepochłaniająca promieniowania elektromagnetycznego. Przeważa pogląd, że podlega ona oddziaływaniom słabym, dlatego (podobnie jak neutrina) prawie nie wchodzi w reakcje z materią barionową. Istnieje kilka hipotez na temat tego, czym jest i skąd się wzięła ciemna materia, ale żadna z nich nie została na razie poparta dowodami empirycznymi. Jedno jednak wiemy: ciemna materia jest obdarzona masą i oddziałuje grawitacyjnie. Choć nie tworzy zwartych struktur w małej skali, to dzięki grawitacji gromadzi się w otoczkach galaktyk, stanowiąc przeważającą część ich masy (ok. 90% w przypadku Drogi Mlecznej).

Także w przestrzeni międzygalaktycznej jest kilka razy więcej ciemnej materii niż zwykłej. Nie zmienia to faktu, że gęstość wszelkiej materii jest w tym ośrodku znikoma, nawet gdy uwzględnimy fotony, neutrina i bliżej nieznane cząstki ciemnej materii. A czym jest reszta? Prawdziwą próżnią kosmiczną. To znaczy czym? Absolutną pustką, czyli przestrzenią, w której nie ma dosłownie nic? Na to trudne pytanie spróbujemy odpowiedzieć w trzeciej części cyklu.

Przypisy

  1. Mówiąc ściśle, równość postulowana przez Avogadra dotyczy tzw. gazu doskonałego, czyli pewnej idealizacji teoretycznej. Jednak w dużym zakresie warunków różnice między gazem idealnym a gazami rzeczywistymi są na tyle niewielkie, że objętości molowe wodoru, helu, azotu czy tlenu można z czystym sumieniem uznać za równe i wynoszące 22,4 litra. ↩︎
  2. Jak wspomniałem w poprzednim odcinku, taką próżnię są w stanie wytworzyć laboratoryjne i przemysłowe pompy turbomolekularne. Próżnia wokół stacji kosmicznej ma jednak tę przewagę, że nie trzeba jej wytwarzać i że ma ona praktycznie nieograniczoną objętość. Można zatem korzystać z pobytu na stacji, aby przeprowadzać w stosunkowo wysokiej próżni eksperymenty, których wykonanie na Ziemi byłoby kłopotliwe lub niemożliwe (patrz ryc. 1). Dodatkową zaletą stacji kosmicznych jest to, że panują na nich warunki mikrograwitacji (stan nieważkości). ↩︎
  3. Szczególnym przypadkiem są wyrzuty materii koronalnej, zdarzające się raz na kilka dni lub kilka razy dziennie zależnie od fazy cyklu aktywności Słońca. Stosunkowo wąskie, ukierunkowane wyrzuty miliardów ton plazmy osiągają prędkości od 20 do 3200 km/s i mogą docierać poza orbitę Ziemi, a nawet Marsa w postaci obłoków magnetycznych. Ich widocznymi skutkami są burze magnetyczne, zorze polarne, a w skrajnych przypadkach uszkodzenia sztucznych satelitów lub sieci energetycznych. ↩︎
  4. Z powodu ekspansji Wszechświata temperatura promieniowania tła maleje z upływem czasu, a jego długość fali rośnie (jest dosłownie rozciągana wraz z przestrzenią). W chwili „uwolnienia″ widmo promieniowania tła odpowiadało temperaturze ok. 3000 K, a szczyt natężenia przypadał na długość 970 nm, czyli na bliską podczerwień, ale duża część widma wchodziła w zakres światła widzialnego. Młody Wszechświat był zatem „rozgrzany do czerwoności″, jak by to ujął Lucas Bergowsky. ↩︎

Opis ilustracji

Ryc. 1. Fragment Międzynarodowej Stacji Kosmicznej sfotografowany z jej wnętrza. W górnej części widoczny japoński moduł Kibō i jego „instalacja eksponowana″ (Exposed Facility), znana potocznie jako „Taras″. Jest ona otwarta na zewnętrzną próżnię i służy do przeprowadzania eksperymentów badawczych. Źródło: NASA 2021 (domena publiczna).
Ryc. 2. Mgławica Kraba w gwiazdozbiorze Byka (6500 lat świetlnych od Ziemi). Pozostałość po supernowej z 1054 r. Obecna średnica mgławicy to ok. 11 lat świetlnych. W centrum mgławicy znajduje się pulsar – gwiazda neutronowa wirująca z prędkością 30 obrotów na sekundę. Wiatr cząstek relatywistycznych emitowanych przez pulsar generuje promieniowanie synchrotronowe, będące źródłem świecenia mgławicy w zakresie od promieniowania rentgenowskiego do fal radiowych. Gęstość gazu we włóknach mgławicy wynosi około 1300 atomów/molekuł na cm3. Źródło: Webb Space Telescope 2023 (domena publiczna).
Ryc. 3. Odległa gromada galaktyk MACS J1423 zdominowana przez olbrzymią galaktykę eliptyczną (widoczną w centrum zdjęcia). Soczewkowanie grawitacyjne powodowane przez masę gromady jest źródłem powiększonych, zdeformowanych obrazów galaktyk położonych daleko za nią. Gromada leży w odległości 5,4 mld lat świetlnych od Drogi Mlecznej (mierzonej jako czas podróży światła). W układzie współrzędnych współporuszających się (czyli z poprawką na rozszerzanie się Wszechświata) odległość ta wynosi 6,7 mld lat świetlnych. Źródło: Webb Space Telescope 2024 (domena publiczna).

Lektura dodatkowa

  • Astrochemia przestrzeni międzygwiazdowej: Gronowski 2015 (Forum Akademickie).
  • Mikrofalowe promieniowanie tła: Petelczyc 2024 (National Geographic).
  • Kosmiczne neutrina tła: CERN 2020.
  • Z czego składa się Wszechświat? WMAP/NASA.

Próżnia, (nie)byt skomplikowany. Część 1: Próżnie filozofów i eksperymentatorów

Pozostałe części cyklu

Część 2: Próżnie kosmiczne
Część 3: Próżnie relatywistyczne
Część 4: Próżnie kwantowe

Cykl jest odpowiedzią na prośbę czytelnika

Już starożytni Grecy

Już w starożytności zastanawiano się, czy istnieje przestrzeń całkowicie pusta, to jest wypełniona niczym. W kręgach filozofów starogreckich istniały szkoły różnie wyobrażające sobie, czym jest materia i czym jest jej brak. W V/IV w. p.n.e. Leukippos z Miletu (znany też w tradycji polskiej jako Leucyp) oraz jego uczeń Demokryt z Abdery rozwinęli teorię atomistyczną (reprezentowaną także przez Epikura, a w I w. p.n.e. przez Rzymianina Lukrecjusza). Zakładała ona, że materia ma strukturę dyskretną: składa się z bytów elementarnych zwanych atomami (átomos znaczy po grecku ‘niepodzielny, niedający się pociąć’). Atomy miały według niej różną wielkość i formę geometryczną. Były niezmienne, ale znajdowały się w nieustannym ruchu, oddziałując z sobą i łącząc się w zmienne konfiguracje. Pierwotnie ruch atomów miał być całkowicie chaotyczny, ale stopniowo dzięki zderzeniom nabrał cech samoorganizacji. Powstały z niego różne substancje i struktury – w tym Ziemia wraz ze wszystkim, co na niej widzimy, a także inne, podobne do niej światy. Przestrzeń, w której kotłowały się atomy, nie zawierała nic ponadto: była doskonałą próżnią (kenón) – drugim oprócz materii komponentem Wszechświata.

Inni filozofowie, z Arystotelesem (IV w. p.n.e.) na czele, zaprzeczali istnieniu niepodzielnych atomów, wyobrażając sobie materię jako coś ciągłego, czyli podzielnego w nieskończoność. Arystoteles przejął od Empedoklesa z Agrygentu teorię czterech elementów (żywiołów), z których składa się nasz świat: ziemi, wody, powietrza i ognia. Każdy z nich był substancją ciągłą, podzielną w nieskończoność. Grecy doskonale zdawali sobie sprawę z tego, że również powietrze jest materią i że może się poruszać, czego dowodem jest zjawisko wiatru. „Puste” naczynie jest w istocie pełne powietrza. Gdyby jednak jakimś cudem udało się je całkowicie usunąć, jego miejsce zająłby wprowadzony przez Arystotelesa piąty, skrajnie subtelny żywioł, mianowicie eter (aithḗr). Słowo to oznaczało po starogrecku czystą esencję powietrza (jaką zdaniem filozofów oddychali olimpijscy bogowie), a także jasne niebo; pochodziło zaś od czasownika aíthō ‘rozpalić’. Eterem, według Arystotelesa, wypełnione były zewnętrzne sfery Wszechświata, zawierające ciała niebieskie: planety, Słońce i gwiazdy stałe.

Opór antyatomistów przed koncepcją próżni przypominał niechęć wczesnych matematyków do traktowania zera jako liczby – bo czyż twierdzenie, że nicość jest „czymś”, nie jest wewnętrznie sprzeczne? Czy niebyt może być? Czy w próżni w ogóle możliwy jest ruch, skoro nie ma względem czego się poruszać? I próżnia, i zero bywały zatem odrzucane z pobudek filozoficznych, a nawet religijnych. Całkiem poważnie roztrząsano pytanie, czy sam Bóg, gdyby zechciał, mógłby stworzyć próżnię doskonałą.

Od filozofii do praktyki

Jednak zamiast filozofować, można do kwestii próżni podejść empirycznie i zobaczyć, co z tego wyniknie. Czy można w praktyce uzyskać stan próżni, którą można by nazwać techniczną –  przestrzeń może nie absolutnie pustą, ale na tyle pozbawioną wszelkiej materii, na ile jest to praktycznie możliwe? Heron z Aleksandrii (I–II w. n.e.) eksperymentował z rozrzedzaniem i sprężaniem powietrza, a wnioski ze swoich doświadczeń opisał w traktacie Pneumatyka. Jego zdaniem samo zjawisko sprężystości objętościowej powietrza dowodziło istnienia próżni absolutnej, czyli pustego miejsca między cząsteczkami gazu – Heron należał bowiem do zwolenników atomizmu. Jeśli przyjmiemy, że cząsteczki te nie zmieniają objętości, to rozrzedzanie lub sprężanie powietrza musi sprowadzać się do tego, że zmienia się odległość między nimi. W komorze zawierającej powietrze znajduje się zatem określona objętość próżni, w której porusza się mniejsza lub większa liczba „atomów” powietrza. Heronowi nie udało się jednak wytworzyć sztucznie próżni choćby zbliżonej do doskonałej.1

Koniec strachu przed próżnią

Aż do XVII w. dominował pogląd, że natura nie znosi próżni (natura abhorret vacuum) i zawsze znajdzie sposób, żeby się przeciwstawić próbie jej wytworzenia. Pogląd ten obalił w 1643–1644 r. Evangelista Torricelli, przeprowadzając prosty eksperyment ze słupkiem rtęci w rurce zamkniętej na górnym końcu. Dolny koniec rurki jest zanurzony w otwartym naczyniu z rtęcią. Jeśli wysokość słupka nad powierzchnią rtęci w naczyniu osiąga ok. 76 cm, na górnym końcu rurki powstaje próżnia (patrz ryc. 1). Wysokość słupa rtęci nie zależy od tego, czy zamknięty koniec rurki pozostaje wąski, czy np. rozszerza się w kulistą bańkę. Ciśnienie hydrostatyczne wywierane przez ciężar rtęci w rurce dokładnie równoważy ciśnienie atmosferyczne działające na rtęć w naczyniu.

Ryc. 1.

Nieco późniejsze eksperymenty zaprojektowane przez Blaise’a Pascala wykazały, że poziom rtęci w rurce w stanie równowagi maleje wraz z wysokością nad poziomem morza, co odpowiada spadkowi ciśnienia powietrza.2 Tak powstały prototypy barometrów rtęciowych.

Takie samo doświadczenie można przeprowadzić z wodą, tyle że słup wody musi być 13,5 razy wyższy, bo tyle razy gęstość wody jest mniejsza od gęstości rtęci. Już wcześniej wiedziano, że nawet najlepsza pompa nie jest w stanie wypompować wody z głębokości powyżej 34 stóp (ok. 10 m). Intrygowało to m.in. Galileusza, nauczyciela Torricellego. Torricelli wyjaśnił, dlaczego tak się dzieje. Dziesięciometrowy słup wody (podobnie jak 76-centymetrowy słup rtęci) wywiera ciśnienie równoważące ciśnienie atmosferyczne, więc zasysanie wody przez pompę na większą wysokość przestaje być możliwe: wewnątrz pompy wytwarza się próżnia (zwana na cześć swojego odkrywcy próżnią Torricellego)

Innymi słowy – siłą, która podnosi wodę w rurze, nie jest mityczny horror vacui, czyli rzekome dążenie natury do przeciwstawienia się próżni, tylko zewnętrzny nacisk powietrza (substancji posiadającej masę i wywierającej dzięki temu ciśnienie).3 Ciśnienie powietrza wyznacza granicę, powyżej której nie można za jego pomocą podnieść poziomu cieczy w rurze.

Od próżni niskiej do ultrawysokiej

Okazało się zatem, że natura wcale nie boi się próżni i nie wychodzi ze skóry, żeby uniemożliwić jej powstanie. Niebawem pojawiły się pomysłowe „pompy próżniowe” z tłokami i zaworami, które umożliwiały niemal całkowite pozbycie się powietrza z zamkniętego pojemnika. Pierwszą z nich wynalazł Otto von Guericke w 1650 r. i cztery lata później wykorzystał ją w słynnym (replikowanym publicznie do dziś) doświadczeniu z półkulami magdeburskimi, tak silnie ściskanymi przez ciśnienie atmosferyczne po wypompowaniu spomiędzy nich powietrza, że nie mogły ich rozerwać dwa zaprzęgi po 15 koni każdy.

Oczywiście ani próżnia Torricellego, ani tym bardziej próżnia uzyskiwana za pomocą pompy von Guerickego nie były doskonałe. Nawet przy najstaranniejszym wykonaniu eksperymentu Torricellego otrzymana próżnia musi zawierać co najmniej pary rtęci, których ciśnienie np. w temperaturze 25°C wynosi 261 mPa (czyli jest ok. 388 tysięcy razy mniejsze niż ciśnienie powietrza na poziomie morza).4 Jest to całkiem przyzwoita próżnia, ale w wielu współczesnych zastosowaniach potrzebujemy próżni doskonalszej o całe rzędy wielkości i wytwarzanej w bardziej praktyczny sposób. Usprawnione wersje pompy próżniowej von Guerickego używane przez następne 200 lat pozwalały prawdopodobnie uzyskiwać ciśnienie rzędu 100 Pa (czyli jednej tysięcznej zwykłego ciśnienia atmosferycznego).5 Konstrukcja tłoka i zaworów nie pozwalała na więcej. Kolejne udoskonalenia pomp tłokowych pod koniec XIX w. (tzw. pompy olejowe) pozwoliły obniżyć to ciśnienie jeszcze kilka tysięcy razy.

W latach pięćdziesiątych XIX w. Heinrich Geissler skonstruował prototyp pompy rtęciowej, inspirowanej mechanizmem wytwarzania próżni Torricellego. Można było dzięki niej uzyskać ciśnienie ok. 10 Pa (dziesięć tysięcy razy niższe od atmosferycznego) – wówczas rekordowo niskie, a według dzisiejszej terminologii mieszczące się w zakresie próżni średniej (około trzech biliardów molekuł na centymetr sześcienny). Ten typ pompy także udoskonalano w następnych dziesięcioleciach. Próżnią coraz lepszej jakości zaczęli się wówczas interesować fizycy badający zjawiska elektryczne, co z kolei motywowało konstruktorów do szukania nowych rozwiązań technicznych. Na początku XX w. wynaleziono kilka kolejnych typów pomp próżniowych, znów doskonalonych przez kolejne sto lat. Wykorzystywano je coraz szerzej, między innymi w produkcji termosów (próżnia jest świetnym izolatorem ciepła), a przede wszystkim lamp elektronowych, które zapoczątkowały rozwój elektroniki – radia, telewizji czy technologii radarowej.6

Ryc. 2.

Ekstremalne próżnie współczesne

Dziś próżnia wysoka lub ultrawysoka potrzebna jest w licznych zastosowaniach praktycznych, na przykład przy tworzeniu cienkich powłok wysokiej jakości metodą chemicznego osadzania z fazy gazowej, przy produkcji układów półprzewodnikowych i wytwarzaniu różnych wyszukanych materiałów, w spektrometrach mas itd. Największą objętościową próżnią wytworzoną dotąd przez człowieka jest wnętrze tunelu Wielkiego Zderzacza Hadronów: 15 000 m3 próżni izolującej (pod ciśnieniem ok. jednej miliardowej atmosfery) i znacznie mniejsza objętość rury, w której przyśpieszane są protony (tu utrzymywane jest ciśnienie poniżej jednej dziesięciobilionowej atmosfery, czyli próżnia ultrawysoka, mniej więcej taka, jak na powierzchni Księżyca). W centymetrze sześciennym takiej próżni można znaleźć kilkaset tysięcy cząsteczek gazu.

Współczesne metody wytwarzania bardzo wysokiej, czystej próżni polegają na stopniowym obniżaniu ciśnienia za pomocą odpowiednio dobranych pomp różnego typu. Najpierw przy pomocy pomp wyporowych (których prototypem była pompa von Guerickego) osiąga się szybko stan próżni średniej, czyli ciśnienie rzędu 1 Pa. Teraz dopiero można uruchomić pompę wydajniejszą, np. turbomolekularną z wirnikiem wykonującym około 1000 obrotów na sekundę. Łopatki wirnika przekazują energię kinetyczną cząsteczkom rozrzedzonego gazu, wypychając je poza komorę pompy. Ogromna prędkość obrotów sprawia, że pompa turbomolekularna musi pracować przy bardzo niskim ciśnieniu roboczym i być znakomicie łożyskowana, inaczej groziłoby jej szybkie przegrzanie i uszkodzenie. Pompy tego typu mogą obniżyć ciśnienie nawet do ok. 1 μPa (10–6 Pa – jest to mniej więcej jedna stumiliardowa ciśnienia atmosferycznego).7 Pompa turbomolekularna lepiej radzi sobie z usuwaniem molekuł cięższych, jak N2 i O2 (azot i tlen cząsteczkowy) lub argon, niż bardzo lekkich, jak wodór i hel.

Jeśli konieczne jest wytworzenie próżni naprawdę ekstremalnej, można zastosować pompę jonową. Molekuły gazu nadal znajdujące się w komorze są jonizowane i przyśpieszane za pomocą wysokiego napięcia. Uderzając w katodę tytanowo-tantalową wybijają z niej drobiny metalu. Pył metalowy opada na ściany komory, tworząc warstwę, w której pozostałości gazu wiązane są chemicznie lub fizycznie. Najniższe ciśnienie uzyskane tą metodą w laboratoriach CERN wynosiło nieco ponad 10–17 ciśnienia atmosferycznego. A ponieważ powietrze w normalnych warunkach zawiera ok. 3 · 1019 cząsteczek na cm3, łatwo policzyć, że wytworzono „próżnię” o gęstości molekularnej kilkuset cząsteczek na cm3. Nieźle jak na warunki ziemskie, ale jak się przekonamy w następnym odcinku, niemal cały Wszechświat składa się z próżni o wiele doskonalszej.

Przypisy

  1. Trzymając się rozumowania Herona, próżnię bliską doskonałości można by było empirycznie poznać po tym, że zawierające ją naczynie, gdyby je otworzyć pod wodą, obrócone wylotem w dół, zassałoby wodę, wypełniając się nią do końca (lub niemal do końca). ↩︎
  2. Na szczycie Puy de Dôme (1464 m n.p.m.) w Masywie Centralnym słupek miał wysokość ok. 63,3 cm, czyli o 127 mm mniej niż na poziomie morza, co starannie ustalił na prośbę Pascala jego szwagier Florin Périer, dla dobra nauki wniósłszy na tę wysokość cały zestaw eksperymentalny. Sam Pascal ze względu na słabe zdrowie nie palił się do wspinaczki. ↩︎
  3. Torricelli wyciągnął stąd wniosek, że atmosfera Ziemi przypomina ocean, tyle że składający się z powietrza, a nie z wody; my żyjemy na jego dnie i podlegamy naciskowi wywieranemu przez ciężar powietrza. Pascal wykazał, że nacisk ten zmienia się wraz z głębokością zanurzenia, analogicznie do ciśnienia wody w oceanie. ↩︎
  4. Patrz Gaffney & Marley 2014. ↩︎
  5. Jest to notabene ciśnienie wyższe niż średnie ciśnienie atmosfery Marsa na jego powierzchni. ↩︎
  6. Przed rewolucją, jaką stanowiło wprowadzenie tranzystorów, a następnie półprzewodnikowych układów scalonych, lampy elektronowe były podstawą technologii elektronicznej. Prototypowy komputer ENIAC, działający w latach 1945–1955, zawierał ponad 18 tysięcy lamp próżniowych. ↩︎
  7. Mowa o typowej wydajności pomp tego typu, bo rekordowe ciśnienia osiągane w ten sposób mogą być jeszcze niższe. ↩︎

Opisy ilustracji

Ilustracja w nagłówku. Fluktuacje chromodynamicznej próżni kwantowej. Fragment wizualizacji 3D Dereka Leinwebera, wykorzystanej w wykładzie noblowskim Franka Wilczka (2004). Źródło: Wikipedia (licencja CC BY-SA 4.0).
Ryc. 1. Eksperyment Torricellego. Ilustracja wygenerowana za pomocą aplikacji: Anping Zeng (2011), Torricelli´s Experiment, Wolfram Demonstrations Project (licencja CC BY-NC-SA).
Ryc. 2. Pompa olejowa łopatkowa firmy Busch, służąca do wytwarzania próżni średniej (minimalne ciśnienie końcowe 0,67 Pa wg producenta). Zdjęcie: Wiesław Seweryn (licencja CC BY-SA 3.0)

Zasada nieoznaczoności a zapis przyszłości

Przeglądając Twittera, natrafiłem na wpis, którego fragment na ilustracji poniżej:

Czy przyszłość każdego z nas jest zapisana? Śmiem wątpić; bliższa mi jest wersja Sary Connor z „Terminatora”: – Nie ma przeznaczenia, bo sami tworzymy nasz los 🙂 „Gdybyśmy mieli urządzenie zdolne do utrwalenia wszystkich parametrów chwili…”, to i tak nie miałoby to żadnego znaczenia dla poznania naszej przyszłości. Skąd we mnie takie przekonanie? Pod wpisem pozwoliłem sobie umieścić żartobliwy komentarz dotyczący Heisenberga i zasady nieoznaczoności: nasz Wszechświat po prostu tak nie działa.

Zasadę nieoznaczoności często tłumaczy się w ten sposób, że nie da się jednocześnie zmierzyć dokładnie dwóch parametrów danego obiektu, np. pędu i położenia, jak na poniższym rysunku:

„Nie da się zmierzyć” – czyli gdyby się dało, to Pan Profesor miałby rację? Nie, z jakiegoś powodu ludzie uczepili się tego „pomiaru” w opisie zasady nieoznaczoności, a tymczasem nawet gdyby nie było żadnych pomiarów, to i tak nie dalibyśmy rady zapisać wszystkich parametrów chwili. Głównie dlatego, że one po prostu nie istnieją w tej formie, jaką sobie wyobrażamy.

Generalnie wszystko było by dobrze, gdy nie Einstein, Planck, de Broglie, Heisenberg i kilku innych, którzy popełnili mechanikę kwantową. Materia w naszym Wszechświecie, jak pewnie pamiętacie, ma taką złośliwą cechę: w zależności od tego, jak sprawdzać, to zachowuje się jakby była cząstkami albo falami, choć nie jest ani jednym, ani drugim. Na lekcjach chemii mówi się o materii tak, jakby składała się z cząstek w postaci kulek o takim czy innym ładunku – i na potrzeby chemii taki opis jest jak najbardziej w porządku; na lekcjach fizyki zaś dowiadujemy się, że światło, które jest falą elektromagnetyczną, można też traktować jako strumień cząstek o określonych energiach, tj. fotonów. I to zazwyczaj wystarczy, żeby przyjąć postawę: „I tak nic z tego nie zrozumiem”.

O tym, skąd pomysł na fotony, szczegółowo opowiemy sobie w tekście, który będzie kolejną częścią po Rozgrzany do czerwoności! i Katastrofa w ultrafiolecie…

Dobra, ale teraz, choćby pokrótce: skąd u fizyków na przełomie XIX i XX wzięła się ta idea sformułowana jako dualizm korpuskularno-falowy? Trochę z obserwacji, a trochę z intuicji de Broglie’a. W tamtych czasach odkryto i potwierdzono istnienie promieniowania elektromagnetycznego, z tym że nie wszystkie obserwacje dało się wyjaśnić, przyjmując, iż to promieniowanie ma naturę fal. Istniały eksperymenty dotyczące zjawisk takich takich jak efekt fotoelektryczny, promieniowanie ciała doskonale czarnego etc., których wyników w żaden sposób nie dało się wyjaśnić przy założeniu, że światło składa się z fal. Problemy z wyjaśnieniem znikły, gdy przyjęto, iż promieniowanie elektromagnetyczne można opisać równorzędnie tak, jakby omiatały nas nie fale, ale krople o określonych wielkościach.

Do takich wniosków doprowadziły między innymi obserwacje zjawiska znanego jako efekt fotoelektryczny. Polega ono na tym, iż gdy oświetlić powierzchnię metalu światłem o określonej częstotliwości, to wybije ono elektrony, powodując wyraźny odczyt elektroskopu. Zjawisko zachodzi wyłącznie przy określonych częstotliwościach światła. Można to zrozumieć bardzo prosto, przyglądając się efektowi gradobicia. Maleńkie kuleczki są po prostu irytujące, duże – zabójcze. Podobnie Einstein wyobraził sobie zjawisko efektu fotoelektrycznego: światło w tym opisie nie przychodzi w falach, ale w paczkach o energiach zależnych od częstotliwości fali światła.

Tylko że takie paczki są w tym opisie bezmasowe, więc jak to pogodzić z E = mc2? Najlepiej to dać dokończyć Einsteinowi: „mc2” to tylko człon całego równania i opisuje on energię spoczynkową. Jeśli obiekt się porusza (a foton robi to zawsze i niezależnie od przyjętego układu odniesienia), to prawdziwy opis tej sytuacji równaniem wygląda tak: E2 = (pc)2 + (mc2)2. Ponieważ mówimy o cząstce, która ma parametr m=0, to całość upraszcza się do następującej postaci: E = pc. Foton może wybić elektron z powierzchni metalu, ponieważ posiada energię i porusza się, a więc posiada pęd opisany jako: p=E/c. Z tego opisu łatwo wywnioskować, że pęd to nic innego niż matematyczny opis tego, jak obiekt się porusza i jakie ma to skutki dla otoczenia.

No i co miałoby z tego wynikać dla samej zasady nieoznaczoności i dualizmu? Ano, przyjrzał się temu kolejny naukowiec, który znał również inne prace Einsteina oraz Plancka. Mam tu na myśli de Broglie’a, o którym wspominałem wcześniej. Wiedział on z prac Plancka, że energię cząstki światła można również wyrazić następująco: E = hν gdzie E oznacza energię, h – stałą Plancka a greckie ν (czytaj: „ni”, nie mylić z v) opisuje częstotliwość fali. Postanowił przyjrzeć się temu dokładniej i przeprowadził kilka operacji z tym równaniem. Zapewne jemu też ν myliło się z v więc postanowił zapisać to inaczej:

Mnie też to nie rzuciło się w oczy od razu – całość trochę naświetlił mi Feynman. Prędkość światła nie pasowała de Broglie’owi po tej stronie równania, więc matematycznie przeniósł ją na drugą, aby sprawdzić, czy całość będzie miała dalej sens, i wtedy to zobaczył 🙂 Przecież pęd fotonów czy też fal elektromagnetycznych wraża związek p=E/c, a więc jeśli prawdziwy jest związek pomiędzy pędem a samą długością fali, to mamy równanie które łączy w sobie korpuskularne i falowe cechy materii.

Po co o tym mówię? Bo de Broglie na tym nie poprzestał, tylko zaczął zastanawiać się nad tym, co właściwie zapisał. Prawa fizyki są wszędzie takie same, zatem skoro foton ma cechy zarówno cząstki, jak i fali, to uznał on na logikę, że nie ma powodu, aby to samo nie dotyczyło na przykład elektronów. Znając pęd elektronu, można obliczyć długość i częstotliwość fali z nim związaną i przy pomocy odpowiedniego eksperymentu sprawdzić, czy elektron zachowuje się jak zwarta kulka, czy też rzeczywistość jest o wiele dziwniejsza, niż nam się zdaje. Te rozważania zaprzątały jego głowę w 1924. Niedługo później, bo już w 1927, udało się uzyskać doświadczalne potwierdzenie jego hipotezy. Panowie Davisson i Germer strzelali do niklowej płytki strumieniem elektronów i zliczali za pomocą detektorów ustawionych pod różnymi kątami, jak się odbijają od jej powierzchni. Dla czegoś tak małego jak elektron nawet najgładsza powierzchnia (z naszej perspektywy) jest pełna nierówności; założyli więc oni, że zwarte kulki będą odbijać się pod różnymi kątami, a wzór na ekranie detektora będzie rozproszony, chyba że de Broglie miał słuszność ze swoim równaniem wówczas…

fot. domen publiczna

Na ilustracji powyżej wyniki eksperymentu, na ilustracji poniżej wynik eksperymentu z dwiema szczelinami (przy użyciu fal światła) gdyby ktoś miał wątpliwości czy dobrze to rozumie:

fot. domena publiczna

Tak mniej więcej i pokrótce doszliśmy do tego, że materia jest… ciężko powiedzieć czym, ale ma pewne właściwości, które potrafimy badać i zapisywać. No, choćby ten pęd. Tylko znów: jaki to ma związek z zasadą nieoznaczoności? Przyszli kolejni naukowcy, spojrzeli na to rozumowanie i zapytali się, czy dla takiej fali materii da się stworzyć równanie falowe, którego rozwiązanie pozwoli nam np. określić położenie elektronu?

Tak, da się, a twórcą tego równania był znany dręczyciel kotów Schrödinger. W czasie wypadu w góry z kochanką stworzył takie coś:

Możemy sobie teraz rozpisać po kolei, co oznacza to wszystko po kolei, rozwiązać je sobie dla przykładowej cząstki, przekształcić do innych postaci itp. Tylko po co? Już teraz pewnie większość Czytelników zastanawia się, czego nie zrozumie za chwilę. W razie czego wyjaśniam: tego co wyraża to równanie nie rozumiał sam autor, który zresztą podważał własną teorię na każdym kroku, bo też nie mógł przyjąć do wiadomości, że jeśli przyjrzeć się rzeczywistości dokładniej, to robi się bardzo dziwnie. To równanie w każdym razie zawiera w sobie prawie wszystkie parametry obiektu takiego jak elektron (nie ma tu np. spinu). Jeśli rozwiązać takie równanie, to wyjdzie nam na przykład taka fala:

To nie jest ścieżka ruchu elektronu ani linia życia czy cokolwiek innego, tylko po prostu elektron. No dobra, a te górki i doliny – co oznaczają? No, to było właśnie dobre pytanie! Te „górki i doliny”, nawiasem mówiąc, w równaniu reprezentuje grecka litera Ψ, czyli psi, oznaczająca funkcję falową. Bez wchodzenia w matematykę: Schrödinger nie wiedział, czy to równanie ma jakikolwiek sens empiryczny, ale na pewien trop wpadł Max Born – równie wielki fizyk tamtego okresu.

Twierdził on, że owe górki i doliny nie oznaczają nic fizycznego, ale jeśli Ψ potraktować matematyką i zapisać tak: |Ψ|2, czyli jako kwadrat modułu funkcji (co to znaczy z matematycznego na polski można sobie dla tego opisu darować), to te „górki i doliny” oznaczają prawdopodobieństwo natrafienia na cząstkę w danym miejscu. Na ilustracji powyżej nie oznacza to, że elektron jest w dwóch miejscach na raz, albo że pojawia się i znika raz w jednym, a raz w drugim, ale że jeśli chcemy znaleźć elektron (czy inną cząstkę o danych parametrach), to największe szanse mamy w danym punkcie przestrzeni – tam gdzie „falowanie fali” czyli jej amplituda ma największą wartość. Oznacza to ni mniej ni więcej, tylko że obiekty kwantowe po prostu same w sobie nie mają określonego położenia, dopóki go nie zmierzymy, np. oświetlając dane miejsce światłem. Zanim nie zaczniemy szukać (i znajdziemy), to nie można powiedzieć, że taki obiekt ma określone położenie w przestrzeni. Spójrzcie raz jeszcze na ilustrację, ona mówi nam wprost, że nie ma pewności, jest prawdopodobieństwo.

No właśnie? Jakie to ma wszystko znaczenie – te fale, pędy, funkcje itp.? Zróbmy to samo, co Feynman, i zastanówmy się, co to wszystko znaczy po kolei. Wyobraźmy sobie elektron, który ma ściśle określony pęd – czyli mamy elektron, który przemierza przestrzeń z określoną, stałą prędkością. Feynman w tym momencie zapewne by się uśmiechnął i zapytał, czy aby na pewno; przecież de Broglie coś odkrył: p = h/λ. Nie mówimy o cząstce w formie kulki frunącej przed siebie, ale o fali, która wyglądałaby w jednowymiarowym uproszczeniu mniej więcej tak:

Jeśli szukamy długości fali dla cząstki, która ma określony pęd p, to musimy przekształcić wzór do postaci λ = h/p. Stała Plancka jest stała, a pęd też ma określoną wartość, więc wynikiem musi być fala mająca „górki i doliny” w równych odległościach od siebie. Ponieważ pęd ma tylko jedną wartość, to gdziekolwiek spojrzeć, fala wygląda tak samo. Teraz pomyślcie, co to oznacza dla opisu zasady nieoznaczoności.

Skoro pęd mamy dobrze oznaczony, to jego nieokreśloność wynosi 0, a ile wobec tego wynosi nieokreśloność położenia? Gdzie należy szukać cząstki? Jeśli jedna wielkość wynosi zero, to druga musi zmierzać do nieskończoności, a cały zapis traci sens. Przypatrzcie się tej fali i porównajcie ją z poprzednią. W tym przypadku wartość Ψ wynosi wszędzie tyle samo, co oznacza, że prawdopodobieństwo znalezienia obiektu o takich parametrach jest takie samo w każdym miejscu Wszechświata – a to bez sensu. Co trzeba zrobić, aby cząstka miała jednak bardziej oznaczone położenie? Jak sprawić aby amplituda tej fali w którymś z jej punktów była równa 0? Jak to powiedział Feynman na jednym swoich wykładów: „Po prostu dodaj kolejną falę o nieco innej długości, i zobacz, jak wygląda ich suma”.

I teraz już widać, że są takie obszary, gdzie prawdopodobieństwo namierzenia obiektu jest większe, bo takie nakładające się fale wzajemnie się wzmacniają i wygaszają. Tylko spójrzcie, co to oznacza: dodaliśmy falę, a więc obiekt nie ma już teraz tylko jednej wartości p, ale p1 i p2, co automatycznie powoduje, że nieważne, jak byśmy próbowali mierzyć – mamy przysłowiowe szanse 50 na 50 że będzie to p1 lub p2. Te wartości, jak widzicie z ilustracji, nie różnią się jakoś dramatycznie, ale są wyraźnie inne. I to, z którym z tych parametrów przyłapiemy cząstkę na detektorze, absolutnie nie wynika z niczego. Po prostu albo orzeł, albo reszka.

Tyle właściwie teorii. Możemy oczywiście sobie jeszcze popróbować tworzyć różne fale, ale widać od razu, że im bardziej zlokalizowany ma być obiekt, tym więcej fal (a więc możliwych wartości pędu) należy dodać, co zwiększa nam jego nieoznaczoność – i w drugą stronę tak samo. Żeby nasze zabawy mogły dać jakiś sens fizyczny, to wynik musi spełniać poniższą zależność:

Wartości tych parametrów tj. nieoznaczoności pędu i położenia nie mogą po prostu wynosić zero bo w konsekwencji otrzymujemy albo obiekt z ściśle określonym pędem ale jednocześnie wiemy że że należy go szukać z równym prawdopodobieństwem wszędzie lub obiekt który jest maksymalnie zlokalizowany ale jednocześnie z niepewnością pędu dążącą do maksimum a takich obiektów po prostu nie ma – a to w konsekwencji wyklucza możliwość „zapisania wszystkich parametrów chwili”. Nasza przyszłość nie jest nigdzie zapisana bo jej po prostu jeszcze nie ma – musimy tam dosłownie dotrzeć zmieniając swoją pozycję w czasie. Póki co dotarliśmy do końca tych przydługich rozważań. Wszelkiego rodzaju uwagi, komentarze, argumenty przeciw mile widziane.

A już kolejnym razem powiemy sobie o Plancku i o tym jak łyżką narobił bałaganu w fizyce.

(c) by Lucas Bergowsky
Jeśli chcesz wykorzystać ten tekst lub jego fragmenty, skontaktuj się z autorem
.