Co jest przeciwieństwem „zera absolutnego”?

Przeciwieństwem zera absolutnego, czyli temperatury 0 K (-273,15 stopni Celsjusza) jest temperatura 1,41681 × 1032 K. Jest to wartość tak absurdalnie wysoka, że nie bardzo wiem, do czego można ją porównać, skoro jak do tej pory nasze eksperymenty w CERN doprowadziły w czołowych zderzeniach jonów ołowiu do powstania w niewielkich obszarach przestrzeni temperatur rzędu 5,5 x 109 K. Najniższa zarejestrowana temperatura na naszej planecie to jakieś 184,15 K na stacji Wostok na Antarktydzie. Jeszcze niższą, bo około 0,00000001 K, uzyskali naukowcy w laboratorium o wdzięcznej nazwie Cold Atom Lab na pokładzie ISS, podczas gdy naukowcy niemieccy doprowadzili do tego że przez moment najzimniej we Wszechświecie było w ich laboratorium, gdzie schłodzono materię do zaledwie 38 pikokelwinów, tj. 0.000000000038K. Temperatura, przy której obiekty zaczynają świecić na czerwono, to około 798 K. Najgorętsza gwiazda we Wszechświecie ma temperaturę około 210 000 K; jest to gwiazda WR 102 w gwiazdozbiorze Strzelca.

Fajny zbiór niewiele znaczących ciekawostek, prawda? No bo co to właściwie znaczy, że gwiazda ma taką temperaturę, a na stacji Wostok termometry pokazały taką wartość i tak dalej? Sam bym niewiele z tego rozumiał, gdyby nie Feynman i to, że w naszym Wszechświecie absolutnie wszystkie obiekty muszą przestrzegać zasad zachowania (pędu, energii etc.) oraz zachowywać się w danych warunkach stosownie do swojej dualnej natury.

No to metodą Feynmana zostawmy sobie temperaturę i Kelvina na boku. Zacznijmy od zaobserwowania jakiegoś zjawiska i się nad nim pozastanawiajmy. Dlaczego na przykład, gdy nalać do kubka wody i zaparzyć herbaty, to po pewnym czasie taki napój będzie zimny? Z dokładnie tego samego powodu, dla którego możemy sobie ogrzać dłonie o taki kubek: bo emituje on energię za pośrednictwem ciepła, czyli drgań termicznych. No a jeśli coś drga, to z pewnością się porusza, a więc ta energia musi mieć postać związaną z ruchem, czyli być energią kinetyczną. Stąd prosty wniosek, że gdyby nasz kubek z herbatą nie miał żadnej energii do wyemitowania w ten sposób, to oznaczałoby to, że nie nic tam nie drga, czyli ustał jakikolwiek ruch w tym układzie – a nasz Wszechświat tak nie działa.

Czyli temperatura jest w jakiś sposób związana z tym, jak w danym układzie poruszają się różne obiekty – w tym przypadku cząsteczki składające się na herbatę. Im szybciej, tym mają większą energię kinetyczną, a więc sam kubek będzie miał większą temperaturę, która z czasem spadnie, gdyż cząsteczki napoju wytracą energię na zderzenia z cząsteczkami kubka i tak dalej. Oczywiście ta zależność dotyczy absolutnie każdego przypadku. Nieważne, czy mowa o planecie, ludzkim ciele czy atomie.

No, tylko jakie to ma znacznie dla wartości 1,41681 × 1032 K? Jaki ma ona związek z tym, jak poruszają się cząsteczki herbaty w kubku? Na pierwszy rzut oka tego nie widać, więc uprośćmy całość do jednej cząstki znajdującej się w przestrzeni i spróbujmy sobie odpowiedzieć na pytanie: co się stanie, gdy zaczniemy tę przestrzeń coraz bardziej ograniczać?

W takim ujęciu najprościej opisać to zasadami, które rządzą światem na tym poziomie, czyli mechaniką kwantową. Cząstki nie są czymś w rodzaju kulek, które obijają się jedna od drugiej i o ściany ograniczające wspomnianą przestrzeń; mamy przed sobą trochę inny świat, w którym cząstki zdają się być falami, a ściany nie muszą być z cegieł. Popularnie nazywa się to problemem cząstki w pudle potencjału.

Jak wyżej – cząstki mają naturę falową, a fale mają to do siebie, że odznaczają się pewną długością, a ponieważ przestrzeń, w której te fale muszą się zmieścić, jest ograniczona ścianami potencjału, oznacza to, że tylko że pewne długości fal są dozwolone (i mamy na to ulubiony rodzaj dowodu wielu ludzi tj. naoczny, mowa tu oczywiście o efekcie Casimira o którym więcej tutaj). Można to łatwo zapisać jak na ilustracji poniżej:

Czym są te fale materii? To pytanie dla poetów. Jak się zachowują takie fale, opisał Louis de Broglie, który zauważył, że pęd cząstki jest zależny od długości fali: im krótsza, tym pęd większy. No to zapiszmy to językiem matematyki, tak aby stworzyć wzór mówiący nam, jakie są możliwe wartości pędu dla cząstki w naszym pudle:

Dozwolone długości fali znamy z pierwszego równania; zależność pomiędzy pędem cząstki a długością fali zawiera drugi wzór, gdzie p oznacza pęd, h – stałą Plancka, a λ – długość fali.

Na razie nie jest to może jeszcze całkiem czytelne, więc uprzedzam, za chwilę będzie jeszcze dziwniej, ale na końcu wszystko stanie się oczywiste. Po co nam te wzory? Bo chcemy poznać dozwolone wartości energii cząstki uwięzionej w pudle potencjału, więc weźmy powyższe i dopiszmy do tego coś jeszcze:

Poprzednie równanie opisujące dozwolone pędy przepisałem, redukując stałą Plancka (czyli dzieląc ją przez 2π), aby było to bardziej czytelne; kolejne mówi nam wprost, że skoro cząstka porusza się w pudle swobodnie, to cała jej energia jest energią kinetyczną. Łącząc je razem, otrzymujemy wzór opisujący nam dozwolone stany energetyczne cząstki uwięzionej w takim pudle. Jako że to matematyka, to na pierwszy rzut oka może to nie być widoczne, ale ten wzór mówi nam, że skoro długość fali musi ściśle pasować do długości pudła, to tylko pewne ściśle określone stany energii są dozwolone. Cząstka może zajmować tylko ściśle określone poziomy energetyczne (lub mieć tylko ściśle określone długości fali), czyli są one skwantowane: można mieć E1 lub E2, ale nie E1,5. Mówi on nam również, że nawet najniższy dozwolony poziom energii nie jest zerowy. Podstawmy n = 1; otrzymamy wówczas taką postać powyższego:

Gdyby E miało być równe 0, to jaką wartość L musiałaby mieć wówczas długość boku pudła potencjału? Tego się nie da rozwiązać, bo fala o nieskończonej długości potrzebuje nieskończonego pudła, a takich rzeczy we Wszechświecie nie ma. Wniosek z tego prosty: jeśli cząstka jest uwięziona w pudle potencjału, to z pewnością przenosi jakąś energię i aby w nim istnieć, musi koniecznie posiadać jakieś minimum energii. I co ważne – im pudło mniejsze, tym bardziej wartość takiej energii rośnie. Jeśli zaczniemy ściskać ścianki pudła, to skróceniu ulegnie długość fali cząstki uwięzionej w środku, a skoro, jak powiedział de Broglie, p = h/λ i skoro wartość λ maleje, to wzrastać musi wartość p, czyli pędu. A skoro rośnie wartość pędu, to rośnie również energia samej cząstki. I tu zaczyna się robić ciekawie: no bo skoro rośnie pęd takiej cząstki, to rośnie również jej prędkość. Naprawdę ciekawie robi się, gdy w miarę ściskania pudła doprowadzimy prędkość cząstki do wartości bliskich prędkości światła. Wtedy przychodzi Einstein i zaczynają się efekty relatywistyczne, które powodują, że im bardziej ściskamy dany obszar przestrzeni, tym większa musi być energia minimalna cząstki. Czy jest wobec tego jakiś limit i jaki ma to związek z temperaturą 1,41681 × 1032 K?

Gdybyście teraz zmierzyli temperaturę powietrza wokół was, to tak naprawdę zmierzylibyście pośrednio średnią energię kinetyczną cząsteczek powietrza. Tak jak we wzorze mówiącym o równoważności energii i masy czynnikiem wiążącym te dwie skale jest prędkość światłą c, podobnie czynnikiem, który wyraża związek pomiędzy energią a temperaturą, jest stała Boltzmanna, zapisywana jako kB. Stąd mamy E = kBT. Jeśli rośnie energia, to rośnie również efektywna temperatura danego regionu przestrzeni. Tu warto zaznaczyć, że o ile pojęcie „temperatury” nie ma zastosowania do pojedynczych cząstek, ale do ich grup, to ta idea efektywnej temperatury jak najbardziej jest przydatna dla odpowiedzi na pytanie postawione w tytule. Im bardziej ściskamy dany region przestrzeni, tym bardziej rośnie jego efektywna temperatura. Co się zatem stanie, gdy nasze pudło osiągnie najmniejszą dozwoloną długość, czyli długość Plancka? Oznacza to, że efektywna temperatura tego regionu przestrzeni będzie przez moment najwyższą temperaturą mającą sens fizyczny. Ułamek sekundy później ten region przestanie być dostępny, zapadając się pod horyzontem zdarzeń i stając czarną dziurą, a tego, co dzieje się pod horyzontem zdarzeń, nasze teorie nie obejmują. Tak więc skoro nasze pudło musi mieć przynajmniej długość Plancka, to wstawmy to do wzoru opisującego skalę efektywnej temperatury tego regionu:

Taka była temperatura Wszechświata, gdy osiągnął rozmiary równe długości Plancka, gdy minął czas Plancka. Pytanie, czy jest to limit ostateczny, wymaga zupełnie nowej teorii, bo nasze dotychczasowe zawodzą. Jeśli ściśniemy cokolwiek do tych rozmiarów, to natychmiast ściskany obiekt zapadnie się, tworząc czarną dziurę, której fizyka wymyka się naszemu rozumieniu. Tak samo nie umiemy powiedzieć, czy Wszechświat przed upływem czasu Plancka był gorętszy. I tak to jest zazwyczaj w fizyce: zaczyna się od pytań o kubek herbaty, a kończy w okolicach czarnych dziur.

(c) by Lucas Bergowsky
Jeśli chcesz wykorzystać ten tekst lub jego fragmenty, skontaktuj się z autorem
.

Jak „zauważyliśmy” inne galaktyki?

Pierwotnie chciałem napisać tekst dotyczący ogromnych bzdur astrologii, ale zgodnie z polityką naszego portalu pytania Czytelników mają zawsze pierwszeństwo.

Pytanie dotyczyło tego, skąd właściwie wiemy, że Wszechświat się rozszerza. Odpowiedzmy sobie uczciwie: wiemy, a raczej jak to w nauce bywa, zakładamy z dużą dozą pewności, że tak jest, od około stu lat. Wcześniej uważaliśmy, że Wszechświat po prostu jest w takiej formie, w jakiej go widzimy od zawsze, a nasza Galaktyka to „cały” Wszechświat.

No i właśnie wtedy na scenę wkroczył Edwin Hubble i… – i wszystko, co napisałbym dalej, pomijałoby istotę sprawy.

Tym, który jako pierwszy zauważył, że może być coś na rzeczy, był niejaki Vesto Melvin Slipher który zajmował się analizą spektralną, czyli poszukiwał śladów substancji takich jak woda, tlen, metan itp. w spektrum światła emitowanego przez różne obiekty na niebie. Przyglądając się obiektom znanym ówcześnie (mowa o roku 1912) jako „mgławice spiralne”, zauważył, że linie świadczące o obecności związków i pierwiastków w większości przypadków są przesunięte ku czerwieni, a w nielicznych ku niebieskiej części spektrum.

Po lewej linie spektralne w przypadku Słońca, po prawej jednej z oddalających się od nas gromad galaktyk.

Co to oznaczało? Slipher z pewnością wiedział o tzw. „efekcie Dopplera”. Cóż to za efekt? Bez wchodzenia w szczegóły – pięknie zaprezentował go eksperyment z 1845, przeprowadzony przez holenderskiego chemika Christopha Ballota, który poprosił grupę trębaczy, aby grali jeden ton, po czym wsadził ich do pociągu i nasłuchiwał: gdy pociąg się zbliżał, dźwięk stawał się wyższy (czyli rosła częstotliwość), a gdy oddalał, dźwięk stawał się niższy (z uwagi na spadek częstotliwości). Co ważne, zmiany częstotliwości idealnie zgadzały się z przewidywaniami Dopplera.

Jeśli ktoś potrzebuje sprawdzić to naocznie (czy też nausznie), to wystarczy skupić się na dźwięku przejeżdżającego na sygnale pojazdu straży pożarnej. Efekt ten możemy zaobserwować również dla innych fal, np. elektromagnetycznych. Jeśli źródło promieniowania się do nas zbliża, to zaobserwujemy wzrost częstotliwości i skrócenie fali; jeśli się oddala, to zaobserwujemy coś odwrotnego. Korzystając ze wspomnianego efektu, da się również obliczyć prędkość, z jaką taki obiekt się oddala bądź przybliża. Slipher takie obliczenia oczywiście wykonał i uznał, że musi się mylić. Na przykład prędkość, z jaką musiałaby się oddalać „mgławica spiralna” M104 (znana dziś jako Galaktyka Sombrero), wynosiła ok. 3,6 mln km/h; prędkości pozostałych „mgławic” również były znacznie większe niż prędkości, z jakimi poruszały się np. obserwowane gwiazdy. Jeśli jego obliczenia były poprawne, to „mgławice” nie mogły być częścią naszej Galaktyki, której średnicę szacowano na jakieś 30 tysięcy lat świetlnych. Po prostu Wszechświat musiał być znacznie większy, niż myśleliśmy do tej pory – tylko jak to sprawdzić? Gdzie jest dowód? Może Slipher zwyczajnie się mylił?

Dlaczego więc po prostu nie zmierzył odległości do tych obiektów? Zmierzył – a raczej próbował, gdyż miał bardzo niedokładną miarkę. W 1912 roku najlepszą metodą na pomiar odległości do tak odległych ciał było posłużenie się paralaksą i trygonometrią. Nie, nie będzie matematyki; to da się wyjaśnić dość prosto przy pomocy tego, co każdy z was może zobaczyć na własne oczy.

Wystawiamy przed siebie dwa palce wskazujące: jeden mamy blisko twarzy, a drugi ustawiamy dalej, tak aby były w jednej linii z nosem. Patrzymy okiem prawym a następnie lewym. Jak widać, obraz zdaje się przesuwać, przy czym palec znajdujący się bliżej twarzy wydaje się przesuwać bardziej, niż ten dalej. Dokładnie tak samo działa to na większą skalę:

Teraz, zamiast zmieniać oko, którym obserwujemy, zmieniamy naszą pozycję wraz z całą planetą i obserwujemy widok taki jak na nieboskłonie: wystarczy zmierzyć kąt alfa przy wierzchołku trójkąta i można oszacować odległość, posługując się prawami matematyki. Problem tkwi w tym, że ta metoda ma ograniczenia związane z wielkością wspomnianego wcześniej kąta. Powyżej pewnych odległości jest on po prostu zbyt mały. W tamtych czasach granicą tej metody był dystans około 100 lat świetlnych. Slipher mógł jedynie powiedzieć, że obserwowane obiekty są na pewno dalej niż 100 lat świetlnych – i tyle; a rozmiar Galaktyki szacowano na 30 000 lat świetlnych, więc mogły być z powodzeniem wewnątrz niej (jak do tej pory uważano), ale równie dobrze gdzieś poza. Bez odpowiedniego narzędzia nie było po prostu możliwości, aby pójść dalej. Vesto został z wiedzą, że „mgławice spiralne” wykazują przesunięcie ku czerwieni, co wskazuje na to, że się oddalają z prędkościami, które zdawały się jasno wskazywać, iż coś w jego rozumowaniu jest nie tak. Jedynym rozwiązaniem było po prostu stwierdzić, jak daleko tak naprawdę są.

Tylko jak to zrobić skoro mamy początek XX wieku? Na rozwiązanie może nas naprowadzić pewne rozumowanie związane z naturą świecy lub żarówki. Świecą one z pewną jasnością, która maleje tym bardziej, im dalej odsuwamy je od naszych oczu. Wystarczy mieć jedną w znanej odległości, aby na podstawie jej jasności ocenić, jak daleko jest świeca, której obserwowana jasność jest mniejsza np. trzykrotnie. Warunkiem jest to, aby wszystkie świece były dokładnie takie same, jeśli chodzi o ich jasność.

No i jak to w świecie nauki bywa, ktoś wpadł na coś niesamowicie oczywistego, a była to Henrietta Swan Leavitt.

Po studiach astronomicznych została zatrudniona w Obserwatorium Uniwersytetu Harvarda wraz z innymi kobietami przez E. Pickeringa do pracy, którą dziś wykonują komputery, czyli do obliczeń i analizy danych astronomicznych. Przyczyną zatrudnienia kobiet do tej żmudnej pracy był z pewnością fakt, że można im było płacić mniej niż mężczyznom. Mówiąc brutalnie, przy tym samym budżecie miały więcej mocy obliczeniowej.

Jakimi rzeczami zajmowała się wspomniana astronomka? Pickering zlecił jej obserwacje gwiazd zmiennych w Wielkim i Małym Obłoku Magellana. Zbierała więc dane z płytek fotograficznych i nanosiła je na wykres jak na poniższym przykładzie:

fot. CC BY-SA 3.0

W tym przypadku mamy zmiany jasności gwiazdy Delta Cephei w czasie. Przygasa i rozbłyska – i widać tu pewien wzór. Gwiazd, które zachowują się w ten sposób, jest więcej; nazywamy je cefeidami od gwiazdozbioru Cefeusza, w którym znajduje się ta gwiazda.

Na co wpadła Henrietta? Jej szczególną uwagę przykuła grupa 25 cefeid znajdujących się w Małym Obłoku Magellana. Obserwując zmiany ich jasności doszła do następującego wniosku:

„Można łatwo poprowadzić linię prostą pomiędzy każdym z dwóch szeregów punktów odpowiadających maksimom i minimom, pokazując w ten sposób, że istnieje prosta zależność pomiędzy zmianą jasności cefeid i ich okresami”.

fot. domena publiczna

A co to właściwie oznacza? Henrietta zaobserwowała, że niektóre z tych cefeid rozbłyskają jaśniej niż inne i ma to związek z czasem, jaki dzieli okresy największej jasności. Im dłuższy, tym bardziej rozbłyskała gwiazda, a ponieważ Henrietta założyła, że te obserwowane przez nią są w rzeczywistości blisko siebie, to oznacza to że mamy to, czego szukaliśmy – świece standardowe! Działa to bardzo prosto. Za przykład weźmy Deltę Cephei: jest to cefeida, której jasność zmienia się w okresach pięciodniowych. Henrietta dostrzegła w Małym Obłoku Magellana podobną cefeidę, której jasność wynosiła 1/10000 jasności Delty Cephei. Pozwoliło to za pomocą prawa odwrotności kwadratów określić, że Mały Obłok Magellana znajduje się około 100 razy dalej niż Delta Cephei. I działa to w przypadku każdej gwiazdy tego rodzaju.

Z prac Henrietty natychmiast skorzystali inni, między innymi Harlow Shapley, który zidentyfikował cefeidę w centrum naszej Galaktyki, co pozwoliło mu obliczyć, że znajdujemy się nie w jej centrum ani też blisko niego, ale na jej peryferiach, a jej rzeczywista średnica to nie 30 000 lat świetlnych, ale około 100 000 lat świetlnych. Kolejnym był Edwin Hubble – prawnik, który zmądrzał i został astronomem. Zidentyfikował cefeidę w Mgławicy Andromedy i oszacował (sporo zaniżając), że ten obiekt musi znajdować się minimum milion lat świetlnych od nas (dziś wiemy że ok. 2,5 miliona). I jeśli jest tak daleko, to jego rzeczywiste rozmiary dziwnie przypominają średnicę naszej Galaktyki. Właśnie wtedy do nas dotarło, czym są tak naprawdę te „mgławice spiralne”…

fot. domena publiczna

No to wróćmy jeszcze do Vesto Sliphera i „przesunięcia ku czerwieni”. Hubble, korzystając z cefeid, określił odległości do wspomnianych wcześniej mgławic (czyli galaktyk) na miliony lat świetlnych i zauważył ciekawą zależność związaną z ich „przesunięciem ku czerwieni” czy też prędkością ucieczki: te znajdujące się bliżej nas zdawały się oddalać wolniej niż te odległe, co widzimy na wykresie:

fot. domena publiczna

Tylko co właściwie oznaczały te obserwacje? Samo stwierdzenie, że galaktyki poruszają się w przestrzeni, to za mało, bo skoro wszystko oddala się od nas, to oznaczałoby, że nasza galaktyka jest centrum Wszechświata, a już wtedy wiedzieliśmy, że pogląd, iż jesteśmy „centrum” czegokolwiek, jest błędny. A dodatkowo stwierdzenie to w żaden sposób nie wyjaśnia, dlaczego obiekty bardziej odległe oddalają się szybciej niż te bliskie.

Przypominam: w tamtych czasach zakładano, że Wszechświat jest statyczny i jest sceną dla wszystkiego, co się dzieje. Inne zdanie na ten temat miał Aleksandr Aleksandrowicz Friedman, rosyjski matematyk i fizyk, który zajmował się kosmologią w ramach Ogólnej Teorii Względności. Postanowił, przyjmując pewne założenia, rozwiązać równanie pola Einsteina dla całego Wszechświata, aby określić sposób jego ewolucji. Nie wchodząc w matematykę – wyszło mu że Wszechświat powinien się rozszerzać sam w sobie, proporcjonalnie we wszystkich kierunkach. Przypomina to trochę sytuację jak na animacji poniżej: rodzynki w tym cieście wyobrażają galaktyki, a ciasto jest przestrzenią. Doskonale zgadza się to z obserwacjami Hubblea. Zwróćcie uwagę że niezależnie od tego, z którego rodzynka obserwujemy ewolucję ciasta, to najszybciej oddalają się te najbardziej odległe. Wszechświat, jak się okazuje, nie jest statyczny, ale ewoluuje, rozrastając się niczym balon lub ciasto. Friedman zaproponował również jako jeden z pierwszych pewien wniosek: jeśli we Wszechświecie nie ma wyróżnionego miejsca ani kierunku, a rozszerza się on w ten sposób, to co stanie się, gdy odwrócić kierunek tego procesu niczym film puszczony w tył? Czyżby wszystko było kiedyś w jednym punkcie, a początkiem tego procesu był Wielki Wybuch?

Następnym razem, czy to patrząc w nocne niebo, czy podziwiając piękne zdjęcia wykonane przez Teleskop Hubble‘a, przypomnijcie sobie Henriettę Leavitt, niesłyszącą od urodzenia córkę pastora z Lancaster. To dzięki jej cierpliwości i geniuszowi zobaczyliśmy odległe galaktyki i zrozumieliśmy, jak wielki jest Wszechświat.

(c) by Lucas Bergowsky
Jeśli chcesz wykorzystać ten tekst lub jego fragmenty, skontaktuj się z autorem
.

Jak wydostać się ze studni (potencjału)?

Zacznijmy od czegoś dobrze znanego: jądra wszystkich pierwiastków cięższych niż ołów ulegają rozpadowi, przemieniając się w inne, bardziej stabilne. No, weźmy sobie taki kilogram radu-226 (oczywiście metaforycznie). Jeśli odczekać ok. 1600 lat, to okaże się, że nie mamy kilograma, tylko pół, a reszta gdzieś się ulotniła – i to dosłownie, gdyż produktem rozpadu radu jest gazowy radon. I tu często pojawia się pojawia się pytanie, na które nam (a przynajmniej mnie) nie odpowiedziano w szkole: jeśli dla radu korzystnym jest się rozpaść, to dlaczego nie dzieje się to od razu, tylko trzeba czekać? Jądro radu rozpada się, emitując cząstkę alfa, składającą się z dwóch protonów i dwóch neutronów; i jeśli mieć przed sobą takie jądro, to w żaden sposób nie jesteśmy w stanie określić, kiedy cząstka alfa zostanie wyemitowana.

Jeśli się to energetycznie opłaca, to dlaczego trzeba czekać? Żeby to zrozumieć, zastanówmy się nad tym, jak jądro atomowe wygląda, jeśli nie będziemy zaciemniać sobie obrazu protonami i neutronami 🙂 Mecz piłki nożnej każdy widział – generalnie nic ciekawego, ale za to siatkówka! Tu mamy coś interesującego z punktu widzenia fizyki. Co trzeba zrobić, aby piłka przedostała się ponad siatką z jednej połowy na drugą? No, tu akurat odpowiedź jest prosta: przerzucić odpowiednio mocno, tak aby poleciała ponad siatką, a nie poniżej. Co to znaczy „przerzucić odpowiednio mocno”? Jak dla mnie, chodzi o nadanie piłce odpowiedniej energii, aby znalazła się ponad barierą z siatki, a nie poniżej. Dokładnie o to samo chodzi, gdy chcemy wystrzelić sondę w stronę granic Układu Słonecznego: musimy nadać jej pęd, który pozwoli jej przekroczyć barierę przyciągania ziemskiego.

Jądro atomowe, jak się okazuje, również jest otoczone barierą wynikającą z oddziaływania silnego, które je spaja. Jeśliby cokolwiek chciało obszar wyznaczony taką barierą opuścić, musi posiadać energię wyższą niż ta, która wynika z jej potencjału. Brzmi skomplikowanie? To wyobraźmy sobie swojską studnię – zagłębienie w gruncie, otoczone barierą. Jeślibyśmy chcieli wyrzucić, dajmy na to, kilogramowy kamień z dna takiej studni, to potrzeba nam energii, która sprawi, że kamień znajdzie się wyżej niż krawędź bariery: E = mGh, czyli jeśli rzucamy z dna studni o głębokości trzech metrów kilogramowym kamieniem, to trzeba mu nadać energię większą niż 29,4 J. Jądro atomowe też można traktować jako studnię, tyle że nie materialną, ale studnię potencjału, z której taka cząstka alfa musi się wydostać. Podobnie jak kamień, tak i cząstka potrzebuje energii, aby przekroczyć barierę potencjału jądrowego. Ile? Tu dla wygody posłużymy się elektronowoltami zamiast dżuli (1 eV ≈ 1,602 177 33(49) · 10−19 J) – „wysokość” takiej bariery wynosi ok. 25 MeV. I tu zaczyna dziać się dziwnie, bo gdy zabraliśmy się za pomiary energii cząstek alfa powstających przy rozpadzie radu-226, to okazało się, że mają one energię ok. 4,8 MeV, czyli absolutnie nie powinny móc wydostać się poza jądro atomowe. Mają na to zbyt małe energie – tyle tylko, że rozpad radu jak najbardziej zachodzi i mamy na to dowody. Czyli że źle obliczyliśmy barierę potencjału? Nie – jej wartość jest poprawna.

Jeśli na jakieś pytanie da się odpowiedzieć jednocześnie „tak” i „nie”, to znaczy, że za chwilę zza rogu wyłoni się nasza ulubiona fizyka kwantowa. Narysujmy sobie taką studnię i cząstkę w jej wnętrzu:

Gdyby puścić ilustrację w ruch, to łatwo stwierdzić, że cząstka nie znajdzie się nigdy powyżej bariery, a więc nie może zostać wyemitowana z jądra. No, ale tak się dzieje: rozpad alfa zachodzi, więc coś musi pozwalać na to, aby zachodził. I pozwala na to sama natura naszego Wszechświata, a konkretnie tunelowanie kwantowe – i jakkolwiek dziwnie to brzmi, jest to ściśle związane z zasadą nieoznaczoności i naturą obiektów kwantowych, które nie mają ściśle określonych parametrów takich jak np. położenie. (Więcej w poprzednim tekście Zasada nieoznaczoności a zapis przyszłości). Cząstki alfa wewnątrz studni potencjału nie można sobie wyobrażać jako kulki poruszającej się po ścianach takiej studni ani jako planety orbitującej w studni potencjału związanej z oddziaływaniem grawitacyjnym z gwiazdą. Ciężko powiedzieć, co właściwie przypomina obiekt kwantowy, stąd takie metafory. Chyba najprościej będzie znów to sobie narysować:

Żeby coś powiedzieć o obiekcie kwantowym, najlepiej obliczyć jego funkcje falową, posługując się odpowiednim równaniem. Powyższa „fala” to jedynie spore i mało estetyczne uproszczenie, które należy rozumieć w następujący sposób: tam, gdzie amplituda fali jest największa, tam największe prawdopodobieństwo natrafienia na obiekt kwantowy. Jeśli taka „fala” napotka na barierę potencjału, to jej amplituda zaczyna zanikać, czyli dążyć do zera, co oznacza, że prawdopodobieństwo znalezienia się obiektu po drugiej stronie bariery jest niesamowicie małe – ale niezerowe! Czyli może się zdarzyć, że taka cząstka znajdzie się po drugiej stronie bariery, a więc poza jądrem, choć prawdopodobieństwo tego jest bardzo małe. Ponieważ takie prawdopodobieństwa sumują się w czasie, to prędzej czy później osiągniemy 50%, co nazwaliśmy sobie „półrozpadem” lub „półżyciem”.

Jądra ciężkich pierwiastków nie rozpadają się od razu, bo emitowane cząstki alfa nie mają odpowiedniej energii, aby przekroczyć barierę potencjału. Mają jako obiekty kwantowe coś innego – pewną szansę znalezienia się po drugiej stronie bariery. I ponieważ jakoś trzeba było to nazwać, to proces takiego przejścia obiektu kwantowego przez barierę pomimo niewystarczającej energii do jej przekroczenia nazywamy „tunelowaniem kwantowym”.

Przyjrzyjmy się jeszcze przez chwilę emitowanej cząstce alfa – Weźmy dwa izotopy polonu, syntetyczny polon-209 i występujący w śladowych ilościach polon-210. W pierwszym przypadku cząstka alfa jest emitowana z energią ok. 4,97 MeV a w drugim 5,4 MeV – okres połowicznego rozpadu pierwszego z izotopów to ok. 103 lata a drugiego to 138 dni. Z jądra radu-226 jest emitowana z energią ok. 4,8 MeV a czas półrozpadu tego izotopu to ok. 1600 lat. Uran-238 występujący w naturze? Emitowana cząstka alfa ma energię ok. 4,3 MeV a czas półrozpadu wynosi już 4,5 miliarda lat, podczas gdy w przypadku bizmutu-209 energia emitowanej cząstki alfa to ok. 3,14 MeV a czas połowicznego rozpadu wynosi ok. 20 trylionów lat (wiek Wszechświata to ok. 13,82 miliarda lat). Jak widać niewielka zmiana energii znajduje odbicie w zmianie okresu półrozpadu – z tym że ta zmiana jest tu nie „niewielka” ale potężna bo o wiele rzędów wielkości. Być może jest to jedna z przyczyn powodująca że wszystkie pierwiastki lżejsze niż bizmut posiadają stabilne izotopy (poza technetem i prometem) – ich ewentualny rozpad tą drogą jest tak mało prawdopodobny że można spokojnie pominąć taką możliwość i nazwać je „stabilnymi”.

W sumie to dobrze, że jądra nie rozpadają się od razu, bo życie takie, jakie znamy, nie byłoby możliwe, tak samo jak nie byłoby ono możliwe, gdyby tunelowanie kwantowe nie działało w dwie strony – bo jak pewnie wiecie, nasze Słońce działa tak, że łączy w swoim jądrze atomy wodoru w atomy helu, a my, jak wszystkie inne organizmy, korzystamy z tej energii. W uproszczeniu proces takiej fuzji polega na zbliżeniu do siebie dwóch protonów na tyle blisko, aby oddziaływanie silne pokonało odpychanie się dwóch ładunków elektrycznych. Czyli znów mówimy o barierze potencjału. Aby ją pokonać, należy mieć odpowiednią energię, a więc temperaturę. W tym przypadku byłoby potrzeba więcej niż 10 miliardów kelwinów, podczas gdy jądro naszej gwiazdy może się poszczycić zaledwie 15 milionami kelwinów. Czyli nasze Słońce jest zbyt zimne, aby mogła w nim zachodzić fuzja – ale zachodzi, gdyż obiekty kwantowe nie mają ściśle określonego położenia i czasem znajdą się tam, gdzie trzeba – czyli tam gdzie zasięg oddziaływania silnego pokonuje barierę powstającą gdy dwa tożsame ładunki elektryczne napotkają na siebie, co sprawia, że Słońce może podtrzymywać fuzję i nie zachodzi ona zbyt szybko.

A czy to zjawisko tunelowania kwantowego znalazło jakieś zastosowanie praktyczne poza tym, że dzięki niemu istnieje rozpad alfa lub fuzja w zbyt zimnym Słońcu? No pewnie – jak myślicie, niby jak inaczej powstał poniższy obraz?

fot. domena publiczna

Co to za górki i doliny? Jest to obraz powierzchni żelaza zanieczyszczonej chromem, powstały przy pomocy skaningowego mikroskopu tunelowego, który umożliwia uzyskanie obrazu o rozdzielczości na poziomie atomów.

Jak to działa? Banalnie prosto: nad powierzchnią badanej próbki przesuwa się igłę takiego mikroskopu, spreparowaną tak, aby na szczycie jej ostrza znajdował się dokładnie jeden atom. Jeśli przesuwać taką igłę nad powierzchnią badanej próbki w niewielkiej odległości, to wystarczy przyłożyć niewielkie napięcie, aby elektrony mogły pokonać obszar pomiędzy igłą a próbką, obszar będący w istocie barierą potencjału. Ponieważ mowa o przepływie ładunku elektrycznego, to nazwano to zjawisko „prądem tunelowym”, a każdy prąd posiada pewne natężenie. No to teraz przesuńmy sobie igłą nad badaną powierzchnią i zobaczmy, jak zmienia się natężenie takiego prądu tunelowego. Jeśli natrafimy na „górkę”, to szerokość bariery spadnie, a natężenie prądu wzrośnie, i na odwrót w przypadku natrafienia na „dołek”. Jeśli chcemy utrzymać stałą wartość natężenia takiego prądu, to musimy odpowiednio igłę opuszczać i podnosić w zależności od badanej powierzchni, a to właśnie pozwala na takie „mapowanie”.

Zjawisko tunelowania kwantowego jest również poważną przeszkodą dla inżynierów pracujących dla firm takich jak np. Intel, Qualcomm czy AMD. Zapewne kojarzycie te nazwy z układami scalonymi. Taki układ scalony to po prostu mnóstwo maleńkich tranzystorów upakowanych na płytce. Ile? – sporo bo przeciętnie kilka miliardów o wielkości ok. 10–14 nm (1 nm = 0,000001 milimetra). Po co nam te nanometrowe tranzystory w układach scalonych? Jak pewnie wiecie, językiem komputerów jest język bitów – zer i jedynek. Tranzystor może być wyłączony i mieć wówczas wartość zera lub włączony i mieć wartość jedynki. Przepuszczając prąd w odpowiedni sposób, możemy tranzystor włączyć lub wyłączyć, co pozwala nam mówić do komputera ciągiem zer i jedynek. Materiałem, z którego wykonany jest taki tranzystor, jest półprzewodnik (o których więcej w O lewitacji i bramkach). Zmniejszając tranzystor, zmniejszamy grubość bariery, co oznacza, że tracimy kontrolę nad tym, co mówimy „zerami i jedynkami” do komputera.

Jak sami widzicie – gdzie nie spojrzeć, tam coś dziwnego we Wszechświecie, a za każdym z tych dziwactw kryje się to, że „Pan Bóg” jednak gra w kości 🙂

(c) by Lucas Bergowsky
Jeśli chcesz wykorzystać ten tekst lub jego fragmenty, skontaktuj się z autorem
.