Próżnia, (nie)byt skomplikowany. Część 4: Próżnie kwantowe

Pozostałe części cyklu

Część 1: Próżnie filozofów i eksperymentatorów
Część 2: Próżnie kosmiczne
Część 3: Próżnie relatywistyczne

Jeszcze jedno spojrzenie na próżnię

Ponieważ jest to ostatni odcinek cyklu, warto sobie przypomnieć, jak ewoluowało pojęcie próżni. Zaczęliśmy od filozofów starożytnych: atomistów, którzy uważali, że przestrzeń między najmniejszymi cegiełkami materii jest pusta, i antyatomistów, dla których sama koncepcja pustki absolutnej była nie do przyjęcia, toteż próbowali ją wypełnić „żywiołem subtelnym” – eterem. Wiek XIX przyniósł z jednej strony tryumf atomowej teorii budowy materii, a z drugiej – renesans koncepcji eteru, tym razem jako ośrodka przenoszącego fale elektromagnetyczne. Szczególna teoria względności zanegowała istnienie eteru, a ogólna teoria względności skupiła się na geometrii czasoprzestrzeni, abstrahując od jej „wypełniacza”. Wiemy, że przestrzenie Wszechświata są na ogół niemal doskonale puste. Jednak teorie kosmologiczne znów zaczęły sugerować, że ta „pustka” odznacza się własną gęstością energii (lub, co na jedno wychodzi, masy), co prawda znikomą, ale jak się okazuje, dostatecznie dużą, żeby decydować o geometrii i ewolucji Wszechświata. Prawda, że to trochę skomplikowane jak na dyskusję o „niczym”?

Ale najdziwniejsze jeszcze przed nami. Dziś zajmiemy się koncepcją próżni w fizyce kwantowej. Fizyka współczesna to dyscyplina pełna zdumiewających odkryć, które zmieniły świat nie do poznania. Jak wszyscy wiedzą (albo powinni wiedzieć), w pierwszych dziesięcioleciach XX w. wybuchły w niej dwie rewolucje. Jedna (ogólna teoria względności) przyniosła spójną i zgodną z obserwacjami teorię grawitacji, a druga (mechanika kwantowa), która osiągnęła dojrzałość w latach dwudziestych i trzydziestych ubiegłego wieku, dostarczyła narzędzi pozwalających zrozumieć przedziwny świat cząstek subatomowych i elementarnych oraz oddziaływań między nimi. Rozwinęła się z niej fizyka kwantowa w szerszym sensie, obejmująca kilka nowych kierunków badań, takie jak kwantowa teoria pola czy informatyka kwantowa.

Świat niedookreślony i cząstki na granicy istnienia

Jednym z fundamentów fizyki kwantowej jest zasada nieoznaczoności, sformułowana w 1927 r. przez Wernera Heisenberga. Stwierdza ona, że istnieją pewne pary wielkości fizycznych (nazywamy je kanonicznie sprzężonymi), których dla tego samego obiektu nie można jednocześnie zmierzyć z dowolną dokładnością. Im precyzyjniej próbujemy ustalić jedną z nich, tym większy będzie rozrzut wyników pomiaru drugiej i vice versa. Wynika to z faktu, że cząstki materii zachowują się pod pewnymi względami jak pakiety falowe, których parametry (odpowiadające różnym klasycznym „wielkościom fizycznym”) nie mogą jednocześnie przybierać ściśle określonych wartości. Można jedynie stwierdzić, że wartości te z takim a takim prawdopodobieństwem mieszczą się w takim a takim zakresie.

Do takich sprzężonych wielkości należą pęd i położenie cząstki, o czym pisał niedawno Lucas Bergowsky (Zasada nieoznaczoności a zapis przyszłości). Możemy na przykład, dokonując pomiaru, „zmusić” cząstkę, żeby jej pęd stał się określony z dużą dokładnością, ale wtedy jej położenie staje się rozmyte: z równym prawdopodobieństwem może się ona znaleźć gdziekolwiek w sporym obszarze przestrzeni – czyli mówiąc po prostu, nie wiadomo, gdzie jej szukać. Inna taka para wielkości to energia i czas. Nietrwała cząstka ma pewien średni czas życia i masę (czyli także równoważną tej masie energię spoczynkową E0 = m0 c2). Jeśli jest dokładnie zlokalizowana w czasie, czyli rozpada się bardzo szybko, to jej masa/energia może przyjmować wartości z dość szerokiego zakresu (staje się „rozmyta”). Natomiast im bardziej rozciągnięta w czasie jest długość życia cząstki, tym dokładniej można określić jej masę/energię.

Przykładem może być najkrócej żyjąca i jednocześnie najcięższa cząstka elementarna w modelu standardowym: kwark t. Istnieje on zaledwie ok. 5 · 10–25 s – tak krótko, że ulega rozpadowi, zanim oddziaływania silne zdążą go związać z innymi kwarkami w cząstkę złożoną (hadron). Jest dzięki temu jedynym kwarkiem, którego rozpad można zaobserwować „na swobodzie”. Masa kwarku t, wyznaczona ostatnio z dużą dokładnością, odpowiada energii 172,52 ± 0,33 GeV. Jest to wartość średnia, od której masa kwarku ujawniająca się w zdarzeniach z jego udziałem może odbiegać o wielkość rzędu 0,65 GeV (powiązaną z czasem życia, co wynika wprost z zasady nieoznaczoności), czyli prawie o masę protonu. Nie jest to kwestia niedoskonałości technicznej pomiaru (która oczywiście też komplikuje ustalenie masy tak trudno uchwytnej cząstki), tylko faktu, że kwark t nie ma i nie może mieć jednoznacznie ustalonej masy; ma natomiast pewien stosunkowo szeroki rozkład prawdopodobieństwa masy z określonym powyżej maksimum i szacowanym rozrzutem wokół niego. Natomiast masę elektronu, który jest cząstką trwałą i może żyć dowolnie długo, możemy wyznaczyć z dokładnością sięgającą obecnie kilkunastu cyfr znaczących.1

Cząstki, czyli pola wzbudzone

Próżnię „klasyczną” mogą, oprócz cząstek, wypełniać pola, spośród których poznaliśmy już pole elektromagnetyczne (kombinacja pola elektrycznego i magnetycznego) i grawitacyjne. Pole to sposób, w jaki opisujemy zdolność oddziaływania na odległość. Pola klasyczne mają to do siebie, że w danym punkcie przyjmują pewną konkretną wielkość (skalarną, wektorową bądź tensorową). W szczególności wielkość ta może być równa zeru, co oznacza, że pole w danym punkcie całkowicie zanika. Jednak w fizyce kwantowej pole staje się czymś w rodzaju obiektu fizycznego. Zaciera się granica nie tylko między cząstką a odpowiadającą jej falą, ale także między cząstką/falą a zaburzeniem pola.

Cząstka może być traktowana jako stan wzbudzenia pola na tyle trwały, że można go zaobserwować wprost. A ponieważ same pola mają naturę kwantową, oddziaływania fizyczne są opisywane jako wymiana „cząstkopodobnych” fluktuacji, które zachodzą w tak krótkim czasie i w tak ograniczonej przestrzeni, że zgodnie z zasadą nieoznaczoności nie można im przypisać określonej energii/masy ani pędu/prędkości. Nie można ich także zaobserwować bezpośrednio. Używane w odniesieniu do nich określenie „cząstki wirtualne” rodzi w umyśle obraz pojawiających się i znikających cząstek materialnych. Jest to wyobrażenie nieco zwodnicze, bo aby cząstka mogła naprawdę zaistnieć, powinna mieć choć trochę określone parametry. Istnieją jednak realne (czy też „urealnione”) cząstki odpowiadające wirtualnym nośnikom oddziaływań: bezmasowe fotony i gluony, ciężkie bozony pośredniczące Z0 i W± oraz jeszcze masywniejsza cząstka Higgsa (patrz ryc. 1).

Ryc. 1.

Model standardowy postuluje istnienie znacznej liczby pól odpowiadających poszczególnym rodzajom cząstek elementarnych, interpretowanych jako ich obserwowalne wzbudzenia. Są wśród nich pola sił odpowiedzialne za przenoszenie oddziaływań fundamentalnych (elektromagnetyczne, słabe i silne), natomiast skalarne pole Higgsa odpowiada za generowanie masy spoczynkowej niektórych cząstek elementarnych.

Można w zasadzie powiedzieć, że w rzeczywistości kwantowej nie ma nic prócz wszechobecnych pól, a to, co uznajemy za cząstki i oddziaływania, odpowiada ich wzbudzeniom i fluktuacjom. Jedno pole pozostaje wszakże poza zasięgiem modelu standardowego: pole grawitacyjne, którego opis nadal jest klasyczny. Nie stworzono dotąd powszechnie akceptowanej teorii grawitacji kwantowej. Nie zaobserwowano także hipotetycznych nośników oddziaływań grawitacyjnych – grawitonów. Ogólna teoria względności i fizyka kwantowa pozostają uzupełniającymi się opisami Wszechświata, między którymi brakuje spójnego związku (choć zakłada się, że wszystkie pola i związane z nimi cząstki oddziałują grawitacyjnie).

Lista pól, jakie współistnieją we Wszechświecie, oparta tym, czego wymaga modelu standardowy, nie jest z pewnością pełna. Przypomnijmy sobie, że nie wiemy, na przykład, czym jest ciemna materia, stanowiąca według modelu ΛCDM ok. 84% masy wszelkiej materii złożonej z cząstek. Model Standardowy z prawdopodobieństwem graniczącym z pewnością wymaga poważnego rozszerzenia, aby przynajmniej był zgodny z danymi kosmologicznymi (już pomijając kwestię „specjalnego statusu” oddziaływań grawitacyjnych).

Drgawki, na które nie ma lekarstwa

Stany pola mogą być opisane jako drgania – suma wzbudzeń oscylatorów harmonicznych o różnych częstotliwościach. Energia kinetyczna oscylatora klasycznego jest zawsze dodatnia, a jej średnia wartość może przybierać różne wartości w ciągłym zakresie, poczynając od zera – jak w przypadku wahadła zatrzymanego w punkcie równowagi i pozostającego w spoczynku. Natomiast oczekiwana energia oscylatora kwantowego może dla danej częstotliwości drgań przyjmować tylko pewne dyskretne poziomy energii różniące się o stałą wartość ΔE = hf, gdzie h jest stałą Plancka, a f częstotliwością. Taka określona porcja energii odpowiada pojedynczemu kwantowi pola. Jednak najniższa dopuszczalna energia oscylatora kwantowego (zwana energią punktu zerowego lub energią drgań zerowych) wynosi E0 = hf/2, czyli połowę pojedynczego kwantu. Nie można się jej pozbyć, bo najmniejszą porcją energii, jaka może być pochłonięta lub wypromieniowana w zdarzeniach fizycznych, jest właśnie jeden kwant.

Wskutek tego pole kwantowe nie może nigdzie całkowicie zaniknąć. Zanik oznaczałby bezruch: w danym miejscu pęd związany z oscylacjami osiągałby wartość dokładnie równą zeru, a tego zakazuje zasada nieoznaczoności Heisenberga. Wahadło kwantowe, w odróżnieniu od klasycznego, nigdy nie może jednocześnie znajdować się w punkcie równowagi (minimum energii potencjalnej) i w bezruchu. Dlatego na przykład ruchy cząstek nie zanikają całkowicie nawet dowolnie blisko temperatury zera bezwzględnego (0 K) .2

Próżnia jako zbiór fluktuacji

Zatem w przestrzeni wypełnionej polami, nawet wówczas, gdy nie ma w niej żadnych obserwowalnych wzbudzeń, które można by było zinterpretować jako obecność cząstek elementarnych, każde pole ma w dowolnym miejscu i czasie własną wewnętrzną energię, stanowiącą sumę energii drgań zerowych dla oscylatorów o różnych częstotliwościach. Fizyka kwantowa zmusza pola do nieustannych losowych fluktuacji. Zgodnie z zasadą nieoznaczoności, skrajnie krótkotrwałe zaburzenia oznaczają duży rozrzut energii, jak gdyby pole spontanicznie generowało „cząstki wirtualne”, a dokładniej – pary złożone z wirtualnej cząstki i antycząstyki, które znikają równie szybko, jak się pojawiły. Można powiedzieć, że pole podtrzymuje swoje istnienie, nieustannie oddziałując samo z sobą nawet pod nieobecność „prawdziwych” cząstek. Znów pojawia się tu coś, co przywodzi na myśl dziewiętnastowieczny eter, ale i tym razem analogia jest czysto powierzchowna. Próżnia kwantowa złożona z fluktuujących pól wygląda tak samo dla każdego obserwatora inercjalnego, nie można więc wykryć ruchu jednostajnego względem niej; zachowana jest także oczywiście stała prędkość światła.

Szereg potwierdzonych eksperymentalnie zjawisk fizycznych wskazuje na to, że fluktuacje próżni kwantowej są czymś rzeczywistym, a nie tylko nadinterpretacją modelu matematycznego. Klasycznym przykładem jest efekt Casimira (przewidziany teoretycznie przez holenderskiego fizyka Hendrika Casimira w 1948 r.), polegający na tym, że między dwiema nienaładowanymi, przewodzącymi płytkami zbliżonymi w próżni na odległość d mniejszą niż 1 μm powinna się pojawić mierzalna siła przyciągająca. Bierze się ona stąd, że na zewnątrz płytek fluktuacje próżni mogą mieć dowolną długość fali3, natomiast między nimi, jak we wnęce rezonansowej, wkład do energii próżni dają tylko oscylacje o długości fali 2d/n, czyli takie, których połówka okresu mieści się w d całkowitą liczbę razy. Zatem gęstość energii skwantowanego pola elektromagnetycznego na zewnątrz płytek będzie większa niż pomiędzy nimi, jak gdyby gaz złożony z wirtualnych fotonów wywierał ciśnienie naciskające na płytki z zewnątrz (gdzie gęstość tego „gazu” jest większa niż między płytkami).

Ryc. 2.

Konflikt na pograniczu

Pewnym (delikatnie to ujmując) problemem jest fakt, że sumowanie wszystkich możliwych wkładów w całkowitą energię pól kwantowych każdego punktu w skończonym obszarze daje wynik formalnie dążący do nieskończoności. Nie ma zgody, co począć z tym fantem. Samo mechaniczne sumowanie jest procedurą cokolwiek naiwną. Pola mogą oddziaływać między sobą, zatem traktowanie ich jako niezależnych oscylatorów harmonicznych jest uproszczeniem. Wielu cząstek, a zatem i związanych z nimi pól, zapewne jeszcze nie znamy i nie wiemy, czy ich wkład w całkowitą energię próżni jest dodatni, czy ujemny (co dopuszczają niektóre hipotezy). Ponieważ nie dysponujemy kwantową teorią grawitacji, trudno przewidzieć konskwencje skwantowania oddziaływań grawitacyjnych, a właściwie samej czasoprzestrzeni.

W praktyce stosuje się wybieg polegający z grubsza na przyjęciu, że przy opisie zjawisk kwantowych interesują nas jedynie różnice energii względem pewnej energii odniesienia – obojętnie jakiej, choćby i nieskończonej (tak jak wzrost stojącego człowieka liczymy względem powierzchni, na której człowiek stoi, a nie na przykład jako odległość czubka jego głowy od środka Ziemi). Tu jednak pojawia się konflikt na styku fizyki kwantowej oraz kosmologii (opartej na ogólnej teorii względności). Przyjmijmy, że jakiś mechanizm – niekoniecznie zrozumiały przy obecnym stanie wiedzy – niweluje skutki niezerowej energii podstawowej pól w taki sposób, żeby nie wpływała ona ona na geometrię czasoprzestrzeni. Wtedy efektywna energia próżni z punktu widzenia OTW byłaby dokładnie zerowa. Jednak, jak widzieliśmy w poprzednim odcinku, obserwacje wskazują na istnienie równomiernie rozłożonej „ciemnej energii”, która jest niezbędna, żeby wyjaśnić z jednej strony płaską lub niemal płaską geometrię wielkoskalową Wszechświata, a z drugiej – jego przyśpieszającą ekspansję.

Intuicja podszeptuje, że jeśli próżnia kosmiczna posiada niezerową gęstość energii, a teorie kwantowe wymuszają niezerową energię podstawowych stanów pól, to między jednym a drugim faktem powinien istnieć jakiś związek. Byłoby przy tym miło, gdyby oczekiwania teoretyczne były zgodne z obserwacjami. Jednak wynikająca z pomiarów gęstość próżni (aczkolwiek kluczowa w modelach kosmologicznych) jest śmiesznie mała w porównaniu z tym, co wynika z kwantowej teorii pola.4 Przez „śmiesznie mała” należy rozumieć, że rozbieżność wynosi ok. 120 rzędów wielkości. Tym lepiej zresztą dla nas, a także dla Wszechświata. Gdyby gęstość próżni była zgodna z szacunkami teoretycznymi i wynosiła 1096 kg/m3, Wszechświat nie byłby – mówiąc eufemistycznie – miejscem, jakie znamy i lubimy.5

Próżnia coraz bardziej tajemnicza

Zapewne przy obecnym stanie wiedzy po prostu nie ma sensu stosowanie przewidywań fizyki kwantowej (która pomija oddziaływania grawitacyjne), aby przewidzieć zjawiska istotne dla OTW (która z kolei pomija kwantowe podejście do opisu oddziaływań grawitacyjnych).6 Poprzestańmy zatem na konstatacji, że całkowita energia próżni kwantowej nie jest na razie obliczalna (co nie ma wielkiego praktycznego znaczenia, dopóki nie rozważamy jej wpływu w skali kosmicznej), a ciemna energia ma gęstość bardzo małą, lecz większą od zera i na razie niewyprowadzalną z teorii pól kwantowych (co także nie jest wielkim zmartwieniem, dopóki nie próbujemy na serio zunifikować fundamentalnych teorii fizycznych).

Wielka unifikacja wciąż nam się wymyka. Nie dlatego, żeby brakowało hipotez – mamy raczej problem z ich nadmiarem. Wszystkie proponowane rozwiązania nie mogą jednocześnie być prawdziwe (choć mogą być – i być może są – jednocześnie fałszywe). Ale żeby porównać ich zgodność z empirią w celu oddzielenia ziarna od plew, trzeba by było rozstrzygających obserwacji i eksperymentów. Te, które przeprowadzono do tej pory, ujawniają tak doskonałą, że aż irytującą dokładność przewidywań zarówno OTW, jak i teorii kwantowych tam, gdzie są one stosowalne. Nie podpowiadają jednak, jak scalić te teorie w spójny opis wszystkich aspektów Wszechświata.

Przesłanie końcowe

Dotychczasowy rozwój fizyki w dużym stopniu polegał na przełamywaniu ograniczeń naszej naiwnej wyobraźni. Po każdym dużym kroku naprzód świat stawał się curiouser and curiouser (jak to ujął Lewis Carroll w Alicji w Krainie Czarów). Z punktu widzenia przedstawionych tu refleksji nad historią pojęcia próżni, czyli pustki tak doskonałej, jak to tylko możliwe, mamy do czynienia z interesującym paradoksem. Próżnia współczesna, z uwzględnieniem jej aspektów relatywistycznych, kosmologicznych i kwantowych, pozostaje zjawiskiem bardziej zagadkowym niż kiedykolwiek w przeszłości, choć zdawałoby się, że nie może istnieć nic prostszego. Być może trzeba poczekać na kolejny przełom w fizyce, zanim lepiej zrozumiemy, czym jest „nic”.

Przypisy

  1. Można to sobie wyobrazić na podstawie analogii z drgającą struną. Im krócej trwa jej drganie, tym trudniej określić, a nawet zdefiniować jego częstotliwość. Natomiast jeśli drganie obejmuje wiele okresów drgań struny, określenie częstotliwości nie nastręcza problemów. Wystarczy policzyć liczbę oscylacji w dłuższym okresie czasu i wykonać proste dzielenie (tyle a tyle cykli na sekundę). ↩︎
  2. Nie jest to jedyna ważna różnica między oscylatorem klasycznym a kwantowym. Na przykład ten drugi może z pewnym prawdopodobieństwem znaleźć się w obszarze zabronionym według modelu klasycznego („uciec″ ze studni potencjału, nie pobierając energii z zewnątrz). In a różnica polega na tym, że oscylujące wahadło spędza najwięcej czasu tam, gdzie porusza się najwolniej, a jego energia potencjalna jest największa, czyli blisko miejsc maksymalnego wychylenia, natomiast oscylator kwantowy z największym prawdopodobieństwem można znaleźć w otoczeniu stanu o najniższej energii potencjalnej. ↩︎
  3. Oczywiście ta „dowolność″ jest względna, bo w praktyce efekt Casimira bada się np. w komorze próżniowej, która też narzuca oscylacjom pewne warunki brzegowe. Ale w każdym razie zakres swobody jest dla nich znacznie większy niż w wąskiej szczelinie między płytkami. ↩︎
  4. Albo raczej zdaje się wynikać, bo założenia przyjmowane w próbach teoretycznego oszacowania całkowitej energii próżni zdecydowanie skłaniają do sceptycyzmu. ↩︎
  5. Odpowiada to mniej więcej domniemanej gęstości Wszechświata, kiedy jego wiek był rzędu czasu Plancka, czyli 5,39 · 10–44 s. Dla porównania: najgęstsze obiekty astronomiczne, jakie znamy (poza hipotetyczną osobliwością we wnętrzu czarnej dziury), czyli gwiazdy neutronowe, mają gęstość „zaledwie″ około 3,7–5,9 · 1017 kg/m3. Jest to nieco więcej niż gęstość materii wewnątrz jądra atomu. ↩︎
  6. Aczkolwiek od czasu do czasu ktoś próbuje; patrz Łach 2023 (Projekt Pulsar) o publikacji Tkatchenko & Fedorov 2023). ↩︎

Opis ilustracji

Ryc. 1. Siedemnaście cząstek „modelu standardowego”. Nie wszystkie podane masy są zgodne z aktualnymi oszacowaniami (co nie powinno dziwić, bo jest to dynamicznie rozwijający się obszar badań). Autor: Andrzej Barabasz (Chepry) 2012. Źródło: Wikimedia Commons (licencja CC BY-SA 3.0).
Ryc. 2. Efekt Casimira. Obszar między przewodzącymi płytkami narzuca ograniczenia na długość fali oscylacji (odpowiadających wirtualnym fotonom) w kierunku prostopadłym do płytek. Autor: Kyle Kinsgbury (aphyr) 2009 (fair use).

Lektura uzupełniająca

  • Więcej o kwarku t. Adamczyk 2024 (kwantowo.pl).
  • Dlaczego model standardowy jest teorią zbyt dobrą. Kowalski-Glikmann 2022 (Projekt Pulsar)
  • Dla ambitnych czytelników: różne aspekty i odmiany efektu Casimira i jego możliwe znaczenie praktyczne. Stange, Campbell & Bishop 2021.

Zasada nieoznaczoności a zapis przyszłości

Przeglądając Twittera, natrafiłem na wpis, którego fragment na ilustracji poniżej:

Czy przyszłość każdego z nas jest zapisana? Śmiem wątpić; bliższa mi jest wersja Sary Connor z „Terminatora”: – Nie ma przeznaczenia, bo sami tworzymy nasz los 🙂 „Gdybyśmy mieli urządzenie zdolne do utrwalenia wszystkich parametrów chwili…”, to i tak nie miałoby to żadnego znaczenia dla poznania naszej przyszłości. Skąd we mnie takie przekonanie? Pod wpisem pozwoliłem sobie umieścić żartobliwy komentarz dotyczący Heisenberga i zasady nieoznaczoności: nasz Wszechświat po prostu tak nie działa.

Zasadę nieoznaczoności często tłumaczy się w ten sposób, że nie da się jednocześnie zmierzyć dokładnie dwóch parametrów danego obiektu, np. pędu i położenia, jak na poniższym rysunku:

„Nie da się zmierzyć” – czyli gdyby się dało, to Pan Profesor miałby rację? Nie, z jakiegoś powodu ludzie uczepili się tego „pomiaru” w opisie zasady nieoznaczoności, a tymczasem nawet gdyby nie było żadnych pomiarów, to i tak nie dalibyśmy rady zapisać wszystkich parametrów chwili. Głównie dlatego, że one po prostu nie istnieją w tej formie, jaką sobie wyobrażamy.

Generalnie wszystko było by dobrze, gdy nie Einstein, Planck, de Broglie, Heisenberg i kilku innych, którzy popełnili mechanikę kwantową. Materia w naszym Wszechświecie, jak pewnie pamiętacie, ma taką złośliwą cechę: w zależności od tego, jak sprawdzać, to zachowuje się jakby była cząstkami albo falami, choć nie jest ani jednym, ani drugim. Na lekcjach chemii mówi się o materii tak, jakby składała się z cząstek w postaci kulek o takim czy innym ładunku – i na potrzeby chemii taki opis jest jak najbardziej w porządku; na lekcjach fizyki zaś dowiadujemy się, że światło, które jest falą elektromagnetyczną, można też traktować jako strumień cząstek o określonych energiach, tj. fotonów. I to zazwyczaj wystarczy, żeby przyjąć postawę: „I tak nic z tego nie zrozumiem”.

O tym, skąd pomysł na fotony, szczegółowo opowiemy sobie w tekście, który będzie kolejną częścią po Rozgrzany do czerwoności! i Katastrofa w ultrafiolecie…

Dobra, ale teraz, choćby pokrótce: skąd u fizyków na przełomie XIX i XX wzięła się ta idea sformułowana jako dualizm korpuskularno-falowy? Trochę z obserwacji, a trochę z intuicji de Broglie’a. W tamtych czasach odkryto i potwierdzono istnienie promieniowania elektromagnetycznego, z tym że nie wszystkie obserwacje dało się wyjaśnić, przyjmując, iż to promieniowanie ma naturę fal. Istniały eksperymenty dotyczące zjawisk takich takich jak efekt fotoelektryczny, promieniowanie ciała doskonale czarnego etc., których wyników w żaden sposób nie dało się wyjaśnić przy założeniu, że światło składa się z fal. Problemy z wyjaśnieniem znikły, gdy przyjęto, iż promieniowanie elektromagnetyczne można opisać równorzędnie tak, jakby omiatały nas nie fale, ale krople o określonych wielkościach.

Do takich wniosków doprowadziły między innymi obserwacje zjawiska znanego jako efekt fotoelektryczny. Polega ono na tym, iż gdy oświetlić powierzchnię metalu światłem o określonej częstotliwości, to wybije ono elektrony, powodując wyraźny odczyt elektroskopu. Zjawisko zachodzi wyłącznie przy określonych częstotliwościach światła. Można to zrozumieć bardzo prosto, przyglądając się efektowi gradobicia. Maleńkie kuleczki są po prostu irytujące, duże – zabójcze. Podobnie Einstein wyobraził sobie zjawisko efektu fotoelektrycznego: światło w tym opisie nie przychodzi w falach, ale w paczkach o energiach zależnych od częstotliwości fali światła.

Tylko że takie paczki są w tym opisie bezmasowe, więc jak to pogodzić z E = mc2? Najlepiej to dać dokończyć Einsteinowi: „mc2” to tylko człon całego równania i opisuje on energię spoczynkową. Jeśli obiekt się porusza (a foton robi to zawsze i niezależnie od przyjętego układu odniesienia), to prawdziwy opis tej sytuacji równaniem wygląda tak: E2 = (pc)2 + (mc2)2. Ponieważ mówimy o cząstce, która ma parametr m=0, to całość upraszcza się do następującej postaci: E = pc. Foton może wybić elektron z powierzchni metalu, ponieważ posiada energię i porusza się, a więc posiada pęd opisany jako: p=E/c. Z tego opisu łatwo wywnioskować, że pęd to nic innego niż matematyczny opis tego, jak obiekt się porusza i jakie ma to skutki dla otoczenia.

No i co miałoby z tego wynikać dla samej zasady nieoznaczoności i dualizmu? Ano, przyjrzał się temu kolejny naukowiec, który znał również inne prace Einsteina oraz Plancka. Mam tu na myśli de Broglie’a, o którym wspominałem wcześniej. Wiedział on z prac Plancka, że energię cząstki światła można również wyrazić następująco: E = hν gdzie E oznacza energię, h – stałą Plancka a greckie ν (czytaj: „ni”, nie mylić z v) opisuje częstotliwość fali. Postanowił przyjrzeć się temu dokładniej i przeprowadził kilka operacji z tym równaniem. Zapewne jemu też ν myliło się z v więc postanowił zapisać to inaczej:

Mnie też to nie rzuciło się w oczy od razu – całość trochę naświetlił mi Feynman. Prędkość światła nie pasowała de Broglie’owi po tej stronie równania, więc matematycznie przeniósł ją na drugą, aby sprawdzić, czy całość będzie miała dalej sens, i wtedy to zobaczył 🙂 Przecież pęd fotonów czy też fal elektromagnetycznych wraża związek p=E/c, a więc jeśli prawdziwy jest związek pomiędzy pędem a samą długością fali, to mamy równanie które łączy w sobie korpuskularne i falowe cechy materii.

Po co o tym mówię? Bo de Broglie na tym nie poprzestał, tylko zaczął zastanawiać się nad tym, co właściwie zapisał. Prawa fizyki są wszędzie takie same, zatem skoro foton ma cechy zarówno cząstki, jak i fali, to uznał on na logikę, że nie ma powodu, aby to samo nie dotyczyło na przykład elektronów. Znając pęd elektronu, można obliczyć długość i częstotliwość fali z nim związaną i przy pomocy odpowiedniego eksperymentu sprawdzić, czy elektron zachowuje się jak zwarta kulka, czy też rzeczywistość jest o wiele dziwniejsza, niż nam się zdaje. Te rozważania zaprzątały jego głowę w 1924. Niedługo później, bo już w 1927, udało się uzyskać doświadczalne potwierdzenie jego hipotezy. Panowie Davisson i Germer strzelali do niklowej płytki strumieniem elektronów i zliczali za pomocą detektorów ustawionych pod różnymi kątami, jak się odbijają od jej powierzchni. Dla czegoś tak małego jak elektron nawet najgładsza powierzchnia (z naszej perspektywy) jest pełna nierówności; założyli więc oni, że zwarte kulki będą odbijać się pod różnymi kątami, a wzór na ekranie detektora będzie rozproszony, chyba że de Broglie miał słuszność ze swoim równaniem wówczas…

fot. domen publiczna

Na ilustracji powyżej wyniki eksperymentu, na ilustracji poniżej wynik eksperymentu z dwiema szczelinami (przy użyciu fal światła) gdyby ktoś miał wątpliwości czy dobrze to rozumie:

fot. domena publiczna

Tak mniej więcej i pokrótce doszliśmy do tego, że materia jest… ciężko powiedzieć czym, ale ma pewne właściwości, które potrafimy badać i zapisywać. No, choćby ten pęd. Tylko znów: jaki to ma związek z zasadą nieoznaczoności? Przyszli kolejni naukowcy, spojrzeli na to rozumowanie i zapytali się, czy dla takiej fali materii da się stworzyć równanie falowe, którego rozwiązanie pozwoli nam np. określić położenie elektronu?

Tak, da się, a twórcą tego równania był znany dręczyciel kotów Schrödinger. W czasie wypadu w góry z kochanką stworzył takie coś:

Możemy sobie teraz rozpisać po kolei, co oznacza to wszystko po kolei, rozwiązać je sobie dla przykładowej cząstki, przekształcić do innych postaci itp. Tylko po co? Już teraz pewnie większość Czytelników zastanawia się, czego nie zrozumie za chwilę. W razie czego wyjaśniam: tego co wyraża to równanie nie rozumiał sam autor, który zresztą podważał własną teorię na każdym kroku, bo też nie mógł przyjąć do wiadomości, że jeśli przyjrzeć się rzeczywistości dokładniej, to robi się bardzo dziwnie. To równanie w każdym razie zawiera w sobie prawie wszystkie parametry obiektu takiego jak elektron (nie ma tu np. spinu). Jeśli rozwiązać takie równanie, to wyjdzie nam na przykład taka fala:

To nie jest ścieżka ruchu elektronu ani linia życia czy cokolwiek innego, tylko po prostu elektron. No dobra, a te górki i doliny – co oznaczają? No, to było właśnie dobre pytanie! Te „górki i doliny”, nawiasem mówiąc, w równaniu reprezentuje grecka litera Ψ, czyli psi, oznaczająca funkcję falową. Bez wchodzenia w matematykę: Schrödinger nie wiedział, czy to równanie ma jakikolwiek sens empiryczny, ale na pewien trop wpadł Max Born – równie wielki fizyk tamtego okresu.

Twierdził on, że owe górki i doliny nie oznaczają nic fizycznego, ale jeśli Ψ potraktować matematyką i zapisać tak: |Ψ|2, czyli jako kwadrat modułu funkcji (co to znaczy z matematycznego na polski można sobie dla tego opisu darować), to te „górki i doliny” oznaczają prawdopodobieństwo natrafienia na cząstkę w danym miejscu. Na ilustracji powyżej nie oznacza to, że elektron jest w dwóch miejscach na raz, albo że pojawia się i znika raz w jednym, a raz w drugim, ale że jeśli chcemy znaleźć elektron (czy inną cząstkę o danych parametrach), to największe szanse mamy w danym punkcie przestrzeni – tam gdzie „falowanie fali” czyli jej amplituda ma największą wartość. Oznacza to ni mniej ni więcej, tylko że obiekty kwantowe po prostu same w sobie nie mają określonego położenia, dopóki go nie zmierzymy, np. oświetlając dane miejsce światłem. Zanim nie zaczniemy szukać (i znajdziemy), to nie można powiedzieć, że taki obiekt ma określone położenie w przestrzeni. Spójrzcie raz jeszcze na ilustrację, ona mówi nam wprost, że nie ma pewności, jest prawdopodobieństwo.

No właśnie? Jakie to ma wszystko znaczenie – te fale, pędy, funkcje itp.? Zróbmy to samo, co Feynman, i zastanówmy się, co to wszystko znaczy po kolei. Wyobraźmy sobie elektron, który ma ściśle określony pęd – czyli mamy elektron, który przemierza przestrzeń z określoną, stałą prędkością. Feynman w tym momencie zapewne by się uśmiechnął i zapytał, czy aby na pewno; przecież de Broglie coś odkrył: p = h/λ. Nie mówimy o cząstce w formie kulki frunącej przed siebie, ale o fali, która wyglądałaby w jednowymiarowym uproszczeniu mniej więcej tak:

Jeśli szukamy długości fali dla cząstki, która ma określony pęd p, to musimy przekształcić wzór do postaci λ = h/p. Stała Plancka jest stała, a pęd też ma określoną wartość, więc wynikiem musi być fala mająca „górki i doliny” w równych odległościach od siebie. Ponieważ pęd ma tylko jedną wartość, to gdziekolwiek spojrzeć, fala wygląda tak samo. Teraz pomyślcie, co to oznacza dla opisu zasady nieoznaczoności.

Skoro pęd mamy dobrze oznaczony, to jego nieokreśloność wynosi 0, a ile wobec tego wynosi nieokreśloność położenia? Gdzie należy szukać cząstki? Jeśli jedna wielkość wynosi zero, to druga musi zmierzać do nieskończoności, a cały zapis traci sens. Przypatrzcie się tej fali i porównajcie ją z poprzednią. W tym przypadku wartość Ψ wynosi wszędzie tyle samo, co oznacza, że prawdopodobieństwo znalezienia obiektu o takich parametrach jest takie samo w każdym miejscu Wszechświata – a to bez sensu. Co trzeba zrobić, aby cząstka miała jednak bardziej oznaczone położenie? Jak sprawić aby amplituda tej fali w którymś z jej punktów była równa 0? Jak to powiedział Feynman na jednym swoich wykładów: „Po prostu dodaj kolejną falę o nieco innej długości, i zobacz, jak wygląda ich suma”.

I teraz już widać, że są takie obszary, gdzie prawdopodobieństwo namierzenia obiektu jest większe, bo takie nakładające się fale wzajemnie się wzmacniają i wygaszają. Tylko spójrzcie, co to oznacza: dodaliśmy falę, a więc obiekt nie ma już teraz tylko jednej wartości p, ale p1 i p2, co automatycznie powoduje, że nieważne, jak byśmy próbowali mierzyć – mamy przysłowiowe szanse 50 na 50 że będzie to p1 lub p2. Te wartości, jak widzicie z ilustracji, nie różnią się jakoś dramatycznie, ale są wyraźnie inne. I to, z którym z tych parametrów przyłapiemy cząstkę na detektorze, absolutnie nie wynika z niczego. Po prostu albo orzeł, albo reszka.

Tyle właściwie teorii. Możemy oczywiście sobie jeszcze popróbować tworzyć różne fale, ale widać od razu, że im bardziej zlokalizowany ma być obiekt, tym więcej fal (a więc możliwych wartości pędu) należy dodać, co zwiększa nam jego nieoznaczoność – i w drugą stronę tak samo. Żeby nasze zabawy mogły dać jakiś sens fizyczny, to wynik musi spełniać poniższą zależność:

Wartości tych parametrów tj. nieoznaczoności pędu i położenia nie mogą po prostu wynosić zero bo w konsekwencji otrzymujemy albo obiekt z ściśle określonym pędem ale jednocześnie wiemy że że należy go szukać z równym prawdopodobieństwem wszędzie lub obiekt który jest maksymalnie zlokalizowany ale jednocześnie z niepewnością pędu dążącą do maksimum a takich obiektów po prostu nie ma – a to w konsekwencji wyklucza możliwość „zapisania wszystkich parametrów chwili”. Nasza przyszłość nie jest nigdzie zapisana bo jej po prostu jeszcze nie ma – musimy tam dosłownie dotrzeć zmieniając swoją pozycję w czasie. Póki co dotarliśmy do końca tych przydługich rozważań. Wszelkiego rodzaju uwagi, komentarze, argumenty przeciw mile widziane.

A już kolejnym razem powiemy sobie o Plancku i o tym jak łyżką narobił bałaganu w fizyce.

(c) by Lucas Bergowsky
Jeśli chcesz wykorzystać ten tekst lub jego fragmenty, skontaktuj się z autorem
.

6. Co z tą cząstką/falą?

Jak piszę za każdym razem – materia budująca nasz świat charakteryzuje się zdumiewającymi właściwościami. Najbardziej fantastyczną z nich wydaje się być ów dualizm, który sprawia iż każda z cząstek posiada cechy fali. Koncepcja ta pozwoliła Bohrowi stworzyć model atomu w którym elektron krąży wokół dodatnio naładowanego jądra na ściśle określonych orbitach. Twierdził on iż elektron jest utrzymywany na orbicie wokół jądra za pomocą oddziaływania elektromagnetycznego. Skoro elektron ma ładunek ujemny a jądro dodatni to nie ma w tym nic dziwnego. Problem pojawia się gdy zapytać – „a dlaczego właściwie taki elektron nie spadnie na jądro?” plus i minus się przyciągają a więc wydaje się to być sprzeczne z zdrowym rozsądkiem. Że tak się nie dzieje, to łatwo zaobserwować – z jakiegoś powodu nasz świat jednak pozostaje mniej więcej stabilny. Aby to wyjaśnić Bohr posłużył się pracami Plancka. Według Bohra elektron nie mógł się znajdować na dowolnej orbicie, ale na ściśle określonej. Aby przeskoczyć na wyższą bądź niższą elektron musiał pochłonąć lub wyemitować foton o ściśle określonej energii. I świetnie wyjaśniało to obserwację widma podgrzanego gazu – wodoru.

fot. domena publiczna

Gdyby ta energia mogła być emitowana w dowolnych porcjach, to powinniśmy obserwować ciągłe widmo jak w tęczy. Tymczasem obserwujemy wyraźne, ostre linie i czarne obszary. Te możliwe orbity da się nawet gładko wyliczyć i opisać wzorami, z których wynika że możliwe są te orbity na których moment pędu elektronu jest wielokrotnością stałej Plancka dzielonej przez 2π. Tu wyjaśnię te wszystkie wulgaryzmy – moment pędu to po prostu matematyczny opis tego jak się ciało porusza. Wystarczy nitka i kawałek np. plasteliny na końcu i zakręcić, jeśli znamy masę plasteliny, prędkość i promień tego okręgu to możemy obliczyć moment pędu z wzoru L=mvr. Stała Plancka to kwant, czyli najmniejsza porcja takiego momentu pędu tj. 6.63·10−34 J*s. Cóż – Bohr wszystko gładko wyliczył, odebrał nagrodę Nobla i w sumie można by się rozejść. Niestety ten model ma poważne wady. Nie ma sensu dla atomów posiadających więcej elektronów niż jeden i absolutnie nie wyjaśnia, w jaki sposób elektron będący falą się nie rozprasza – przecież każdy wie że fale z czasem słabną. I jak właściwie określić gdzie znaleźć ów elektron i jak przewidzieć kiedy taka emisja bądź pochłonięcie fotonu nastąpi? Gdyby elektrony faktycznie krążyły po orbitach tak jak planety, to znając ich pęd i położenie można by precyzyjnie przewidzieć gdzie można by go „przygwoździć”.

fot. domena publiczna

Rozwiązanie tej kwestii zostało nazwane mechaniką kwantową która nie jest trudna do zrozumienia ale trochę trudna do zaakceptowania. Za stworzenie tej teorii przyznano, jeśli się nie mylę, 11 nagród Nobla a sami jej twórcy tacy jak np. Heisenberg i Schrödinger nie potrafili zaakceptować tego iż ich przewidywania okazały się być prawdą.

Heisenberg zapewne kojarzy się wam z serią „Breaking Bad”, a powinien z dość miękką postawą wobec nazizmu i katarem siennym. Pierwsza kwestia budzi we mnie niesmak, druga zaś sprawiła iż mający wtedy dwadzieścia cztery lata Heisenberg udał się na wyspę Helgoland, aby uciec przed pyłkami. Dla zabicia czasu zajmował się wyżej wymienioną kwestią i postanowił zastosować pewną matematyczną sztuczkę – uznał, że skoro nie da się oznaczyć dokładnie pojedynczych wartości, to można użyć czegoś co matematycy nazywają „macierzą”.

Dlaczego taka tabela? Heisenberg wymyślił, że skoro nie dało się dokładnie oznaczyć wszystkich parametrów takich jak pęd i położenie cząstki, to można je opisać w formie tablicy z oddzielnymi wartościami dla orbity początkowej i końcowej takiego przeskoku. Dzięki temu elektron nie musi mieć dokładnie określonego położenia, a całą gamę w zależności od przyjętych orbit. Heisenberg gdy odkrył że jego wyliczenia zgadzają się z obserwacjami nie mógł zasnąć do rana i całkiem zapomniał o dręczącej go alergii – po powrocie przesłał swoje prace do Wolfganga Pauliego i Maxa Borna. Jeśli nie wiecie co to wszystko oznacza, to spokojnie – on też nie wiedział ale jak sam zapisał „Jest to dla mnie niejasne ale wygląda na to że elektron nie porusza się po orbitach”.

Niezależnie od niego tę kwestię rozpatrywał Schrödinger, który zapewne kojarzy się z kotem a powinien z ogierem. Tak przynajmniej twierdziła jego małżonka. Mówiąc wprost, ten wybitny fizyk prowadził bardzo bujne życie pozamałżeńskie, co ciekawe za przyzwoleniem małżonki która miała twierdzić że „spokojniej żyć z kanarkiem niż z ogierem, ale ja uwielbiam konie”. Gdy pewnego razu udał się z swoją kochanką w góry miał z sobą prace de Broglie’a, postanowił więc sprawdzić co się stanie gdy spróbuje opisać elektron jako falę. Wyniki były zdumiewające bez żadnych tabel, macierzy etc. a jedynie za pomocą funkcji opisał elektron a jego wyniki idealnie pokrywały się z pracami Bohra. Ot wystarczyło coś co matematycy nazywają „hamiltonianem” czyli zebraną do kupy energią kinetyczną i potencjalną aby uzyskać takie gładkie wyniki. Tylko że taki falowy opis nie ma sensu jeśli pomyślimy o obserwacjach o których pisałem ostatnio – jeśli spróbować złapać pojedynczy elektron to okazuje się być punktem a nie falą. To o co tu właściwie chodzi? Jak wygląda ten atom i gdzie jest ten elektron? Czym są te fale skoro na pewno nie jest to rozsmarowany elektron który w odpowiedniej chwili zbiera się do kupy?

Całość wyjaśnił dopiero Max Born. Zrozumiał on iż te zjawisko to coś zupełnie innego niż fala na wodzie – fale które tak pięknie wynikały z równania Schrödingera i nieoznaczoność ich cech które wykazał Heisenberg mają sens tylko w jednym wypadku: gdy opisują nie fizyczną fale ale prawdopodobieństwo. Brzmi dziwacznie? Zgadzam się – sam Einstein nie potrafił tego przyjąć do wiadomości mówiąc iż „Bóg nie gra w kości…”. Łatwo to sobie jednak wyobrazić gdy pomyślimy o sytuacjach z życia codziennego. Jeśli wiecie że wasz znajomy zazwyczaj spóźnia się na autobus to oznacza że w okolicach czasu jego odjazdu będzie gdzieś w okolicach przystanku, ale żeby stwierdzić gdzie jest dokładnie trzeba zadzwonić i zapytać, wtedy poda nam swoje położenie. Dokładnie tak samo jest z elektronem – zanim go nie sprawdzimy wydaje się być tak jakby nieokreśloną sumą wszystkich możliwości. Pytanie o to gdzie jest elektron po prostu nie ma fizycznego sensu. Należy raczej zapytać o to gdzie jest największa szansa na jego znalezienie.

fot. Ulrich Mohrhoff

Gdyby wyrazić to w formie grafiki, to wygląda to w ten sposób – są to orbitale. Im obszar jaśniejszy tym większa szansa na znalezienie tam elektronu. Dlaczego nie da się wyznaczyć dokładnych położeń? Czy wynika to z niedoskonałości naszych metod? Nie, przypomnijcie sobie, jak mały jest elektron. Jeśli chcemy go zaobserwować to należałoby go oświetlić czyli wysłać w jego stronę fotony o określonym pędzie. Foton zderzając się z elektronem spowoduje jego odrzut czyli zmieni jego pęd. Niestety w naszym wszechświecie nie da się znać na raz wszystkich parametrów. Gdybyśmy je znali, to moglibyśmy przewidywać przyszłość z 100% pewnością a tak przypomina to jak żywo prognozę pogody. Tak, z prac tych wszystkich fizyków wyszło coś bardzo dziwnego – wychodzi na to, że Wszechświatem rządzi przypadek, a rzeczywistość jest nie tyle stałą strukturą co sumą oddziaływań pomiędzy najmniejszymi z cząstek, które je budują. Następnym razem, gdy spojrzysz przez szybę i ujrzysz nie tylko to, co za nią, ale również swoje odbicie to pomyśl, że wynika to z tego że w wyniku „kwantowego rzutu kośćmi” część fotonów przez nią przeszła a część odbiła się o nią i nie ma żadnego powodu który za tym stoi – i nie wiemy dlaczego, bo sama natura nie wie co się stanie.

(c) by Lucas Bergowsky
Jeśli chcesz wykorzystać ten tekst lub jego fragmenty, skontaktuj się z autorem
.