Jak wydostać się ze studni (potencjału)?

Zacznijmy od czegoś dobrze znanego: jądra wszystkich pierwiastków cięższych niż ołów ulegają rozpadowi, przemieniając się w inne, bardziej stabilne. No, weźmy sobie taki kilogram radu-226 (oczywiście metaforycznie). Jeśli odczekać ok. 1600 lat, to okaże się, że nie mamy kilograma, tylko pół, a reszta gdzieś się ulotniła – i to dosłownie, gdyż produktem rozpadu radu jest gazowy radon. I tu często pojawia się pojawia się pytanie, na które nam (a przynajmniej mnie) nie odpowiedziano w szkole: jeśli dla radu korzystnym jest się rozpaść, to dlaczego nie dzieje się to od razu, tylko trzeba czekać? Jądro radu rozpada się, emitując cząstkę alfa, składającą się z dwóch protonów i dwóch neutronów; i jeśli mieć przed sobą takie jądro, to w żaden sposób nie jesteśmy w stanie określić, kiedy cząstka alfa zostanie wyemitowana.

Jeśli się to energetycznie opłaca, to dlaczego trzeba czekać? Żeby to zrozumieć, zastanówmy się nad tym, jak jądro atomowe wygląda, jeśli nie będziemy zaciemniać sobie obrazu protonami i neutronami 🙂 Mecz piłki nożnej każdy widział – generalnie nic ciekawego, ale za to siatkówka! Tu mamy coś interesującego z punktu widzenia fizyki. Co trzeba zrobić, aby piłka przedostała się ponad siatką z jednej połowy na drugą? No, tu akurat odpowiedź jest prosta: przerzucić odpowiednio mocno, tak aby poleciała ponad siatką, a nie poniżej. Co to znaczy „przerzucić odpowiednio mocno”? Jak dla mnie, chodzi o nadanie piłce odpowiedniej energii, aby znalazła się ponad barierą z siatki, a nie poniżej. Dokładnie o to samo chodzi, gdy chcemy wystrzelić sondę w stronę granic Układu Słonecznego: musimy nadać jej pęd, który pozwoli jej przekroczyć barierę przyciągania ziemskiego.

Jądro atomowe, jak się okazuje, również jest otoczone barierą wynikającą z oddziaływania silnego, które je spaja. Jeśliby cokolwiek chciało obszar wyznaczony taką barierą opuścić, musi posiadać energię wyższą niż ta, która wynika z jej potencjału. Brzmi skomplikowanie? To wyobraźmy sobie swojską studnię – zagłębienie w gruncie, otoczone barierą. Jeślibyśmy chcieli wyrzucić, dajmy na to, kilogramowy kamień z dna takiej studni, to potrzeba nam energii, która sprawi, że kamień znajdzie się wyżej niż krawędź bariery: E = mGh, czyli jeśli rzucamy z dna studni o głębokości trzech metrów kilogramowym kamieniem, to trzeba mu nadać energię większą niż 29,4 J. Jądro atomowe też można traktować jako studnię, tyle że nie materialną, ale studnię potencjału, z której taka cząstka alfa musi się wydostać. Podobnie jak kamień, tak i cząstka potrzebuje energii, aby przekroczyć barierę potencjału jądrowego. Ile? Tu dla wygody posłużymy się elektronowoltami zamiast dżuli (1 eV ≈ 1,602 177 33(49) · 10−19 J) – „wysokość” takiej bariery wynosi ok. 25 MeV. I tu zaczyna dziać się dziwnie, bo gdy zabraliśmy się za pomiary energii cząstek alfa powstających przy rozpadzie radu-226, to okazało się, że mają one energię ok. 4,8 MeV, czyli absolutnie nie powinny móc wydostać się poza jądro atomowe. Mają na to zbyt małe energie – tyle tylko, że rozpad radu jak najbardziej zachodzi i mamy na to dowody. Czyli że źle obliczyliśmy barierę potencjału? Nie – jej wartość jest poprawna.

Jeśli na jakieś pytanie da się odpowiedzieć jednocześnie „tak” i „nie”, to znaczy, że za chwilę zza rogu wyłoni się nasza ulubiona fizyka kwantowa. Narysujmy sobie taką studnię i cząstkę w jej wnętrzu:

Gdyby puścić ilustrację w ruch, to łatwo stwierdzić, że cząstka nie znajdzie się nigdy powyżej bariery, a więc nie może zostać wyemitowana z jądra. No, ale tak się dzieje: rozpad alfa zachodzi, więc coś musi pozwalać na to, aby zachodził. I pozwala na to sama natura naszego Wszechświata, a konkretnie tunelowanie kwantowe – i jakkolwiek dziwnie to brzmi, jest to ściśle związane z zasadą nieoznaczoności i naturą obiektów kwantowych, które nie mają ściśle określonych parametrów takich jak np. położenie. (Więcej w poprzednim tekście Zasada nieoznaczoności a zapis przyszłości). Cząstki alfa wewnątrz studni potencjału nie można sobie wyobrażać jako kulki poruszającej się po ścianach takiej studni ani jako planety orbitującej w studni potencjału związanej z oddziaływaniem grawitacyjnym z gwiazdą. Ciężko powiedzieć, co właściwie przypomina obiekt kwantowy, stąd takie metafory. Chyba najprościej będzie znów to sobie narysować:

Żeby coś powiedzieć o obiekcie kwantowym, najlepiej obliczyć jego funkcje falową, posługując się odpowiednim równaniem. Powyższa „fala” to jedynie spore i mało estetyczne uproszczenie, które należy rozumieć w następujący sposób: tam, gdzie amplituda fali jest największa, tam największe prawdopodobieństwo natrafienia na obiekt kwantowy. Jeśli taka „fala” napotka na barierę potencjału, to jej amplituda zaczyna zanikać, czyli dążyć do zera, co oznacza, że prawdopodobieństwo znalezienia się obiektu po drugiej stronie bariery jest niesamowicie małe – ale niezerowe! Czyli może się zdarzyć, że taka cząstka znajdzie się po drugiej stronie bariery, a więc poza jądrem, choć prawdopodobieństwo tego jest bardzo małe. Ponieważ takie prawdopodobieństwa sumują się w czasie, to prędzej czy później osiągniemy 50%, co nazwaliśmy sobie „półrozpadem” lub „półżyciem”.

Jądra ciężkich pierwiastków nie rozpadają się od razu, bo emitowane cząstki alfa nie mają odpowiedniej energii, aby przekroczyć barierę potencjału. Mają jako obiekty kwantowe coś innego – pewną szansę znalezienia się po drugiej stronie bariery. I ponieważ jakoś trzeba było to nazwać, to proces takiego przejścia obiektu kwantowego przez barierę pomimo niewystarczającej energii do jej przekroczenia nazywamy „tunelowaniem kwantowym”.

Przyjrzyjmy się jeszcze przez chwilę emitowanej cząstce alfa – Weźmy dwa izotopy polonu, syntetyczny polon-209 i występujący w śladowych ilościach polon-210. W pierwszym przypadku cząstka alfa jest emitowana z energią ok. 4,97 MeV a w drugim 5,4 MeV – okres połowicznego rozpadu pierwszego z izotopów to ok. 103 lata a drugiego to 138 dni. Z jądra radu-226 jest emitowana z energią ok. 4,8 MeV a czas półrozpadu tego izotopu to ok. 1600 lat. Uran-238 występujący w naturze? Emitowana cząstka alfa ma energię ok. 4,3 MeV a czas półrozpadu wynosi już 4,5 miliarda lat, podczas gdy w przypadku bizmutu-209 energia emitowanej cząstki alfa to ok. 3,14 MeV a czas połowicznego rozpadu wynosi ok. 20 trylionów lat (wiek Wszechświata to ok. 13,82 miliarda lat). Jak widać niewielka zmiana energii znajduje odbicie w zmianie okresu półrozpadu – z tym że ta zmiana jest tu nie „niewielka” ale potężna bo o wiele rzędów wielkości. Być może jest to jedna z przyczyn powodująca że wszystkie pierwiastki lżejsze niż bizmut posiadają stabilne izotopy (poza technetem i prometem) – ich ewentualny rozpad tą drogą jest tak mało prawdopodobny że można spokojnie pominąć taką możliwość i nazwać je „stabilnymi”.

W sumie to dobrze, że jądra nie rozpadają się od razu, bo życie takie, jakie znamy, nie byłoby możliwe, tak samo jak nie byłoby ono możliwe, gdyby tunelowanie kwantowe nie działało w dwie strony – bo jak pewnie wiecie, nasze Słońce działa tak, że łączy w swoim jądrze atomy wodoru w atomy helu, a my, jak wszystkie inne organizmy, korzystamy z tej energii. W uproszczeniu proces takiej fuzji polega na zbliżeniu do siebie dwóch protonów na tyle blisko, aby oddziaływanie silne pokonało odpychanie się dwóch ładunków elektrycznych. Czyli znów mówimy o barierze potencjału. Aby ją pokonać, należy mieć odpowiednią energię, a więc temperaturę. W tym przypadku byłoby potrzeba więcej niż 10 miliardów kelwinów, podczas gdy jądro naszej gwiazdy może się poszczycić zaledwie 15 milionami kelwinów. Czyli nasze Słońce jest zbyt zimne, aby mogła w nim zachodzić fuzja – ale zachodzi, gdyż obiekty kwantowe nie mają ściśle określonego położenia i czasem znajdą się tam, gdzie trzeba – czyli tam gdzie zasięg oddziaływania silnego pokonuje barierę powstającą gdy dwa tożsame ładunki elektryczne napotkają na siebie, co sprawia, że Słońce może podtrzymywać fuzję i nie zachodzi ona zbyt szybko.

A czy to zjawisko tunelowania kwantowego znalazło jakieś zastosowanie praktyczne poza tym, że dzięki niemu istnieje rozpad alfa lub fuzja w zbyt zimnym Słońcu? No pewnie – jak myślicie, niby jak inaczej powstał poniższy obraz?

fot. domena publiczna

Co to za górki i doliny? Jest to obraz powierzchni żelaza zanieczyszczonej chromem, powstały przy pomocy skaningowego mikroskopu tunelowego, który umożliwia uzyskanie obrazu o rozdzielczości na poziomie atomów.

Jak to działa? Banalnie prosto: nad powierzchnią badanej próbki przesuwa się igłę takiego mikroskopu, spreparowaną tak, aby na szczycie jej ostrza znajdował się dokładnie jeden atom. Jeśli przesuwać taką igłę nad powierzchnią badanej próbki w niewielkiej odległości, to wystarczy przyłożyć niewielkie napięcie, aby elektrony mogły pokonać obszar pomiędzy igłą a próbką, obszar będący w istocie barierą potencjału. Ponieważ mowa o przepływie ładunku elektrycznego, to nazwano to zjawisko „prądem tunelowym”, a każdy prąd posiada pewne natężenie. No to teraz przesuńmy sobie igłą nad badaną powierzchnią i zobaczmy, jak zmienia się natężenie takiego prądu tunelowego. Jeśli natrafimy na „górkę”, to szerokość bariery spadnie, a natężenie prądu wzrośnie, i na odwrót w przypadku natrafienia na „dołek”. Jeśli chcemy utrzymać stałą wartość natężenia takiego prądu, to musimy odpowiednio igłę opuszczać i podnosić w zależności od badanej powierzchni, a to właśnie pozwala na takie „mapowanie”.

Zjawisko tunelowania kwantowego jest również poważną przeszkodą dla inżynierów pracujących dla firm takich jak np. Intel, Qualcomm czy AMD. Zapewne kojarzycie te nazwy z układami scalonymi. Taki układ scalony to po prostu mnóstwo maleńkich tranzystorów upakowanych na płytce. Ile? – sporo bo przeciętnie kilka miliardów o wielkości ok. 10–14 nm (1 nm = 0,000001 milimetra). Po co nam te nanometrowe tranzystory w układach scalonych? Jak pewnie wiecie, językiem komputerów jest język bitów – zer i jedynek. Tranzystor może być wyłączony i mieć wówczas wartość zera lub włączony i mieć wartość jedynki. Przepuszczając prąd w odpowiedni sposób, możemy tranzystor włączyć lub wyłączyć, co pozwala nam mówić do komputera ciągiem zer i jedynek. Materiałem, z którego wykonany jest taki tranzystor, jest półprzewodnik (o których więcej w O lewitacji i bramkach). Zmniejszając tranzystor, zmniejszamy grubość bariery, co oznacza, że tracimy kontrolę nad tym, co mówimy „zerami i jedynkami” do komputera.

Jak sami widzicie – gdzie nie spojrzeć, tam coś dziwnego we Wszechświecie, a za każdym z tych dziwactw kryje się to, że „Pan Bóg” jednak gra w kości 🙂

(c) by Lucas Bergowsky
Jeśli chcesz wykorzystać ten tekst lub jego fragmenty, skontaktuj się z autorem
.

Zasada nieoznaczoności a zapis przyszłości

Przeglądając Twittera, natrafiłem na wpis, którego fragment na ilustracji poniżej:

Czy przyszłość każdego z nas jest zapisana? Śmiem wątpić; bliższa mi jest wersja Sary Connor z „Terminatora”: – Nie ma przeznaczenia, bo sami tworzymy nasz los 🙂 „Gdybyśmy mieli urządzenie zdolne do utrwalenia wszystkich parametrów chwili…”, to i tak nie miałoby to żadnego znaczenia dla poznania naszej przyszłości. Skąd we mnie takie przekonanie? Pod wpisem pozwoliłem sobie umieścić żartobliwy komentarz dotyczący Heisenberga i zasady nieoznaczoności: nasz Wszechświat po prostu tak nie działa.

Zasadę nieoznaczoności często tłumaczy się w ten sposób, że nie da się jednocześnie zmierzyć dokładnie dwóch parametrów danego obiektu, np. pędu i położenia, jak na poniższym rysunku:

„Nie da się zmierzyć” – czyli gdyby się dało, to Pan Profesor miałby rację? Nie, z jakiegoś powodu ludzie uczepili się tego „pomiaru” w opisie zasady nieoznaczoności, a tymczasem nawet gdyby nie było żadnych pomiarów, to i tak nie dalibyśmy rady zapisać wszystkich parametrów chwili. Głównie dlatego, że one po prostu nie istnieją w tej formie, jaką sobie wyobrażamy.

Generalnie wszystko było by dobrze, gdy nie Einstein, Planck, de Broglie, Heisenberg i kilku innych, którzy popełnili mechanikę kwantową. Materia w naszym Wszechświecie, jak pewnie pamiętacie, ma taką złośliwą cechę: w zależności od tego, jak sprawdzać, to zachowuje się jakby była cząstkami albo falami, choć nie jest ani jednym, ani drugim. Na lekcjach chemii mówi się o materii tak, jakby składała się z cząstek w postaci kulek o takim czy innym ładunku – i na potrzeby chemii taki opis jest jak najbardziej w porządku; na lekcjach fizyki zaś dowiadujemy się, że światło, które jest falą elektromagnetyczną, można też traktować jako strumień cząstek o określonych energiach, tj. fotonów. I to zazwyczaj wystarczy, żeby przyjąć postawę: „I tak nic z tego nie zrozumiem”.

O tym, skąd pomysł na fotony, szczegółowo opowiemy sobie w tekście, który będzie kolejną częścią po Rozgrzany do czerwoności! i Katastrofa w ultrafiolecie…

Dobra, ale teraz, choćby pokrótce: skąd u fizyków na przełomie XIX i XX wzięła się ta idea sformułowana jako dualizm korpuskularno-falowy? Trochę z obserwacji, a trochę z intuicji de Broglie’a. W tamtych czasach odkryto i potwierdzono istnienie promieniowania elektromagnetycznego, z tym że nie wszystkie obserwacje dało się wyjaśnić, przyjmując, iż to promieniowanie ma naturę fal. Istniały eksperymenty dotyczące zjawisk takich takich jak efekt fotoelektryczny, promieniowanie ciała doskonale czarnego etc., których wyników w żaden sposób nie dało się wyjaśnić przy założeniu, że światło składa się z fal. Problemy z wyjaśnieniem znikły, gdy przyjęto, iż promieniowanie elektromagnetyczne można opisać równorzędnie tak, jakby omiatały nas nie fale, ale krople o określonych wielkościach.

Do takich wniosków doprowadziły między innymi obserwacje zjawiska znanego jako efekt fotoelektryczny. Polega ono na tym, iż gdy oświetlić powierzchnię metalu światłem o określonej częstotliwości, to wybije ono elektrony, powodując wyraźny odczyt elektroskopu. Zjawisko zachodzi wyłącznie przy określonych częstotliwościach światła. Można to zrozumieć bardzo prosto, przyglądając się efektowi gradobicia. Maleńkie kuleczki są po prostu irytujące, duże – zabójcze. Podobnie Einstein wyobraził sobie zjawisko efektu fotoelektrycznego: światło w tym opisie nie przychodzi w falach, ale w paczkach o energiach zależnych od częstotliwości fali światła.

Tylko że takie paczki są w tym opisie bezmasowe, więc jak to pogodzić z E = mc2? Najlepiej to dać dokończyć Einsteinowi: „mc2” to tylko człon całego równania i opisuje on energię spoczynkową. Jeśli obiekt się porusza (a foton robi to zawsze i niezależnie od przyjętego układu odniesienia), to prawdziwy opis tej sytuacji równaniem wygląda tak: E2 = (pc)2 + (mc2)2. Ponieważ mówimy o cząstce, która ma parametr m=0, to całość upraszcza się do następującej postaci: E = pc. Foton może wybić elektron z powierzchni metalu, ponieważ posiada energię i porusza się, a więc posiada pęd opisany jako: p=E/c. Z tego opisu łatwo wywnioskować, że pęd to nic innego niż matematyczny opis tego, jak obiekt się porusza i jakie ma to skutki dla otoczenia.

No i co miałoby z tego wynikać dla samej zasady nieoznaczoności i dualizmu? Ano, przyjrzał się temu kolejny naukowiec, który znał również inne prace Einsteina oraz Plancka. Mam tu na myśli de Broglie’a, o którym wspominałem wcześniej. Wiedział on z prac Plancka, że energię cząstki światła można również wyrazić następująco: E = hν gdzie E oznacza energię, h – stałą Plancka a greckie ν (czytaj: „ni”, nie mylić z v) opisuje częstotliwość fali. Postanowił przyjrzeć się temu dokładniej i przeprowadził kilka operacji z tym równaniem. Zapewne jemu też ν myliło się z v więc postanowił zapisać to inaczej:

Mnie też to nie rzuciło się w oczy od razu – całość trochę naświetlił mi Feynman. Prędkość światła nie pasowała de Broglie’owi po tej stronie równania, więc matematycznie przeniósł ją na drugą, aby sprawdzić, czy całość będzie miała dalej sens, i wtedy to zobaczył 🙂 Przecież pęd fotonów czy też fal elektromagnetycznych wraża związek p=E/c, a więc jeśli prawdziwy jest związek pomiędzy pędem a samą długością fali, to mamy równanie które łączy w sobie korpuskularne i falowe cechy materii.

Po co o tym mówię? Bo de Broglie na tym nie poprzestał, tylko zaczął zastanawiać się nad tym, co właściwie zapisał. Prawa fizyki są wszędzie takie same, zatem skoro foton ma cechy zarówno cząstki, jak i fali, to uznał on na logikę, że nie ma powodu, aby to samo nie dotyczyło na przykład elektronów. Znając pęd elektronu, można obliczyć długość i częstotliwość fali z nim związaną i przy pomocy odpowiedniego eksperymentu sprawdzić, czy elektron zachowuje się jak zwarta kulka, czy też rzeczywistość jest o wiele dziwniejsza, niż nam się zdaje. Te rozważania zaprzątały jego głowę w 1924. Niedługo później, bo już w 1927, udało się uzyskać doświadczalne potwierdzenie jego hipotezy. Panowie Davisson i Germer strzelali do niklowej płytki strumieniem elektronów i zliczali za pomocą detektorów ustawionych pod różnymi kątami, jak się odbijają od jej powierzchni. Dla czegoś tak małego jak elektron nawet najgładsza powierzchnia (z naszej perspektywy) jest pełna nierówności; założyli więc oni, że zwarte kulki będą odbijać się pod różnymi kątami, a wzór na ekranie detektora będzie rozproszony, chyba że de Broglie miał słuszność ze swoim równaniem wówczas…

fot. domen publiczna

Na ilustracji powyżej wyniki eksperymentu, na ilustracji poniżej wynik eksperymentu z dwiema szczelinami (przy użyciu fal światła) gdyby ktoś miał wątpliwości czy dobrze to rozumie:

fot. domena publiczna

Tak mniej więcej i pokrótce doszliśmy do tego, że materia jest… ciężko powiedzieć czym, ale ma pewne właściwości, które potrafimy badać i zapisywać. No, choćby ten pęd. Tylko znów: jaki to ma związek z zasadą nieoznaczoności? Przyszli kolejni naukowcy, spojrzeli na to rozumowanie i zapytali się, czy dla takiej fali materii da się stworzyć równanie falowe, którego rozwiązanie pozwoli nam np. określić położenie elektronu?

Tak, da się, a twórcą tego równania był znany dręczyciel kotów Schrödinger. W czasie wypadu w góry z kochanką stworzył takie coś:

Możemy sobie teraz rozpisać po kolei, co oznacza to wszystko po kolei, rozwiązać je sobie dla przykładowej cząstki, przekształcić do innych postaci itp. Tylko po co? Już teraz pewnie większość Czytelników zastanawia się, czego nie zrozumie za chwilę. W razie czego wyjaśniam: tego co wyraża to równanie nie rozumiał sam autor, który zresztą podważał własną teorię na każdym kroku, bo też nie mógł przyjąć do wiadomości, że jeśli przyjrzeć się rzeczywistości dokładniej, to robi się bardzo dziwnie. To równanie w każdym razie zawiera w sobie prawie wszystkie parametry obiektu takiego jak elektron (nie ma tu np. spinu). Jeśli rozwiązać takie równanie, to wyjdzie nam na przykład taka fala:

To nie jest ścieżka ruchu elektronu ani linia życia czy cokolwiek innego, tylko po prostu elektron. No dobra, a te górki i doliny – co oznaczają? No, to było właśnie dobre pytanie! Te „górki i doliny”, nawiasem mówiąc, w równaniu reprezentuje grecka litera Ψ, czyli psi, oznaczająca funkcję falową. Bez wchodzenia w matematykę: Schrödinger nie wiedział, czy to równanie ma jakikolwiek sens empiryczny, ale na pewien trop wpadł Max Born – równie wielki fizyk tamtego okresu.

Twierdził on, że owe górki i doliny nie oznaczają nic fizycznego, ale jeśli Ψ potraktować matematyką i zapisać tak: |Ψ|2, czyli jako kwadrat modułu funkcji (co to znaczy z matematycznego na polski można sobie dla tego opisu darować), to te „górki i doliny” oznaczają prawdopodobieństwo natrafienia na cząstkę w danym miejscu. Na ilustracji powyżej nie oznacza to, że elektron jest w dwóch miejscach na raz, albo że pojawia się i znika raz w jednym, a raz w drugim, ale że jeśli chcemy znaleźć elektron (czy inną cząstkę o danych parametrach), to największe szanse mamy w danym punkcie przestrzeni – tam gdzie „falowanie fali” czyli jej amplituda ma największą wartość. Oznacza to ni mniej ni więcej, tylko że obiekty kwantowe po prostu same w sobie nie mają określonego położenia, dopóki go nie zmierzymy, np. oświetlając dane miejsce światłem. Zanim nie zaczniemy szukać (i znajdziemy), to nie można powiedzieć, że taki obiekt ma określone położenie w przestrzeni. Spójrzcie raz jeszcze na ilustrację, ona mówi nam wprost, że nie ma pewności, jest prawdopodobieństwo.

No właśnie? Jakie to ma wszystko znaczenie – te fale, pędy, funkcje itp.? Zróbmy to samo, co Feynman, i zastanówmy się, co to wszystko znaczy po kolei. Wyobraźmy sobie elektron, który ma ściśle określony pęd – czyli mamy elektron, który przemierza przestrzeń z określoną, stałą prędkością. Feynman w tym momencie zapewne by się uśmiechnął i zapytał, czy aby na pewno; przecież de Broglie coś odkrył: p = h/λ. Nie mówimy o cząstce w formie kulki frunącej przed siebie, ale o fali, która wyglądałaby w jednowymiarowym uproszczeniu mniej więcej tak:

Jeśli szukamy długości fali dla cząstki, która ma określony pęd p, to musimy przekształcić wzór do postaci λ = h/p. Stała Plancka jest stała, a pęd też ma określoną wartość, więc wynikiem musi być fala mająca „górki i doliny” w równych odległościach od siebie. Ponieważ pęd ma tylko jedną wartość, to gdziekolwiek spojrzeć, fala wygląda tak samo. Teraz pomyślcie, co to oznacza dla opisu zasady nieoznaczoności.

Skoro pęd mamy dobrze oznaczony, to jego nieokreśloność wynosi 0, a ile wobec tego wynosi nieokreśloność położenia? Gdzie należy szukać cząstki? Jeśli jedna wielkość wynosi zero, to druga musi zmierzać do nieskończoności, a cały zapis traci sens. Przypatrzcie się tej fali i porównajcie ją z poprzednią. W tym przypadku wartość Ψ wynosi wszędzie tyle samo, co oznacza, że prawdopodobieństwo znalezienia obiektu o takich parametrach jest takie samo w każdym miejscu Wszechświata – a to bez sensu. Co trzeba zrobić, aby cząstka miała jednak bardziej oznaczone położenie? Jak sprawić aby amplituda tej fali w którymś z jej punktów była równa 0? Jak to powiedział Feynman na jednym swoich wykładów: „Po prostu dodaj kolejną falę o nieco innej długości, i zobacz, jak wygląda ich suma”.

I teraz już widać, że są takie obszary, gdzie prawdopodobieństwo namierzenia obiektu jest większe, bo takie nakładające się fale wzajemnie się wzmacniają i wygaszają. Tylko spójrzcie, co to oznacza: dodaliśmy falę, a więc obiekt nie ma już teraz tylko jednej wartości p, ale p1 i p2, co automatycznie powoduje, że nieważne, jak byśmy próbowali mierzyć – mamy przysłowiowe szanse 50 na 50 że będzie to p1 lub p2. Te wartości, jak widzicie z ilustracji, nie różnią się jakoś dramatycznie, ale są wyraźnie inne. I to, z którym z tych parametrów przyłapiemy cząstkę na detektorze, absolutnie nie wynika z niczego. Po prostu albo orzeł, albo reszka.

Tyle właściwie teorii. Możemy oczywiście sobie jeszcze popróbować tworzyć różne fale, ale widać od razu, że im bardziej zlokalizowany ma być obiekt, tym więcej fal (a więc możliwych wartości pędu) należy dodać, co zwiększa nam jego nieoznaczoność – i w drugą stronę tak samo. Żeby nasze zabawy mogły dać jakiś sens fizyczny, to wynik musi spełniać poniższą zależność:

Wartości tych parametrów tj. nieoznaczoności pędu i położenia nie mogą po prostu wynosić zero bo w konsekwencji otrzymujemy albo obiekt z ściśle określonym pędem ale jednocześnie wiemy że że należy go szukać z równym prawdopodobieństwem wszędzie lub obiekt który jest maksymalnie zlokalizowany ale jednocześnie z niepewnością pędu dążącą do maksimum a takich obiektów po prostu nie ma – a to w konsekwencji wyklucza możliwość „zapisania wszystkich parametrów chwili”. Nasza przyszłość nie jest nigdzie zapisana bo jej po prostu jeszcze nie ma – musimy tam dosłownie dotrzeć zmieniając swoją pozycję w czasie. Póki co dotarliśmy do końca tych przydługich rozważań. Wszelkiego rodzaju uwagi, komentarze, argumenty przeciw mile widziane.

A już kolejnym razem powiemy sobie o Plancku i o tym jak łyżką narobił bałaganu w fizyce.

(c) by Lucas Bergowsky
Jeśli chcesz wykorzystać ten tekst lub jego fragmenty, skontaktuj się z autorem
.

Katastrofa w ultrafiolecie…

Poprzedni tekst Rozgrzany do czerwoności! zakończyłem poniższym wykresem:

Na początku ubiegłego wieku ówcześni naukowcy starali się rozgryźć, dlaczego ten wykres ma właśnie taki kształt, a nie inny. Naniesiono na niego wyniki obserwacji, z których jasno wynikało, iż wszystkie ciała we Wszechświecie, zależnie od swojej temperatury, emitują promieniowanie elektromagnetyczne (nazywane w tym kontekście termicznym) z różną intensywnością: dla ciał o temperaturze od pokojowej do kilkuset stopni Celsjusza maksimum intensywności przypada na podczerwień; dla wyższych temperatur maksimum przesuwa się w lewo w kierunku światła widzialnego i ultrafioletu (co doskonale pasuje do obserwacji promieniowania emitowanego przez gwiazdy). Zachodzi więc pytanie: czym jest czarna linia opisana jako „Classical theory”? Jest efektem pierwszych prób opisania tego zjawiska za pomocą „naszych dotychczasowych teorii, które jak do tej pory świetnie się sprawdzały”. Tylko że w tym przypadku doprowadziły do czegoś, co jest opisane w szkolnych podręcznikach jako „katastrofa w ultrafiolecie”. Te same podręczniki zwykły opisywać to zagadnienie w dość ogólny sposób, z którego potem człowiek niewiele pamięta, zwłaszcza że była tam jakaś podejrzana matematyka.

Matematyka to po prostu język, który umożliwia opisanie zjawisk w bardzo ogólny, wręcz uniwersalny sposób (oczywiście w zadanym zakresie i w granicach naszego pojmowania). W tym przypadku próba opisania promieniowania termicznego w sposób matematyczny doprowadziła do tego, co odczytujemy z wykresu: ciało jak najbardziej powinno emitować promieniowanie elektromagnetyczne i niezależnie od temperatury większość emisji powinna przypadać na ultrafiolet, a emitowana energia dąży do nieskończoności.

Jeśli gdziekolwiek w opisie pojawia się nieskończoność, to jest to dla nas jasny sygnał, że ewidentnie nie rozumiemy tego, na co patrzymy. Wspomniana katastrofa ma miejsce w naszych obliczeniach, ale nie w rzeczywistości. Skąd się ona wzięła i jak do niej doprowadzono? W szkole nie zrozumiałem z tego nic, ale z pomocą przyszedł wspomniany w poprzednim tekście Feynman i jego przekonanie, że nie ma sensu uczyć się samej matematyki, jeśli nie wiadomo, co się za nią kryje.

No to co się kryje za wspomnianym wykresem? To dość proste, ale nie rozmawiajmy o matematyce i zapomnijmy, że jakikolwiek wykres widzieliśmy kiedykolwiek na oczy – nie ma takich rzeczy. Macie gumkę recepturkę względnie jakiś instrument strunowy? No to naciągnijcie gumkę (struny zazwyczaj już są), uderzcie w nią i poobserwujcie, co się dzieje (możecie też posłuchać).

Otóż struna drga! No właśnie – drga w określony sposób, gdyż wzdłuż niej przesuwa się fala. W tym przypadku mechaniczna, a jeśli przyjrzeć się dokładniej, to właściwie są to dwie fale nakładające się na siebie. Taki rodzaj fali nazywamy falą stojącą. To teraz spójrzmy, co się stanie jeśli zmienić długość fali – na przykład skrócić strunę, chwytając ją dokładnie w połowie. Ewidentnie widać, że zwiększyła się jej częstotliwość. Nasuwa się wobec tego pytanie: ile razy można powtórzyć tę operację? Nieskończenie wiele razy.

Tylko jaki to ma związek z omawianym tematem, czyli promieniowaniem termicznym, ciałem doskonale czarnym i katastrofą w ultrafiolecie? Fundamentalny! W końcu fala to fala – obojętnie, czy mechaniczna, czy elektromagnetyczna. Wróćmy na chwilę do ilustracji urządzenia, które symuluje ciało doskonale czarne (tj. takie które absorbuje całe padające nań promieniowanie).

Przypominam jak to działa. Modelem ciała doskonale czarnego jest szczelina w pudełku, którego ściany od wewnątrz są pokryte np. sadzą. O ile zewnętrzne ścianki takiego pudełka będą odbijać padające na nie promieniowanie, o tyle to, co wpadnie przez szczelinę, już tam zostanie, dlatego całe promieniowanie wydostające się ze szczeliny będzie zależeć tylko i wyłącznie od temperatury. No to co się tam dzieje i po co te fale? Weźmy latarkę, poświećmy przez chwilę na to pudło i pomyślmy, cośmy najlepszego narobili!

Światło, a więc strumień fotonów, wpadło do wnętrza pudełka i zostało pochłonięte na jego ściankach. Konkretnie to fotony zostały pochłonięte przez elektrony będące składnikiem atomów, z których każdy obiekt materialny się składa. I co dalej? Skoro pudełko emituje promieniowanie elektromagnetyczne, to są to z pewnością fale tego rodzaju, które docierając do przeciwległej ścianki pudełka, odbijają się, nakładając się na siebie. Jaki to rodzaj fal? Stojące fale elektromagnetyczne. Z obserwacji wiemy, że każde ciało, które emituje promieniowanie termiczne, emituje je we wszystkich zakresach częstotliwości. Stąd wiemy, że tych stojących fal wewnątrz pudełka możemy się spodziewać we wszystkich zakresach – od radiowych po najwyższe częstotliwości. Katastrofa zaczęła się, gdy próbowano to wszystko opisać za pomocą czegoś, co groźnie nazywa się zasadą ekwipartycji energii.

To naprawdę nic trudnego do zrozumienia, jeśli tylko chwilę się zastanowić nad pewną kwestią. Usiądźmy przy trzech koszach na śmieci, do których ludzie co jakiś czas coś wrzucają, poobserwujmy trochę i spróbujmy sobie odpowiedzieć na pytanie: który z koszy pod koniec dnia będzie wypełniony najbardziej przy założeniu że ludzie wrzucają tam odpadki całkowicie losowo, a każdy z nich zajmuje dokładnie taką samą objętość? Pytanie na które nie da się odpowiedzieć? Nic z tych rzeczy – skoro mamy trzy kosze i absolutnie żadnych preferencji co do wyboru, to oznacza, że każdy z nich będzie wybierany średnio tak samo często, a więc pod koniec dnia wszystkie będą wypełnione tak samo.

Podobna sytuacja zachodzi z cząstkami, które również mają coś do wyrzucenia na kilka różnych sposobów – energię, która powoduje ich drgania. I teraz kolejne pytanie: w którym kierunku te drgania mają miejsce? Cząstka, jeśli jest jedna, to ma do wyboru osie x, y, z, czyli trzy stopnie swobody, jak nazywają to statystycy. No i teraz jeśli tych cząstek jest biliard to która z osi będzie preferowana najczęściej, jeśli drgania termiczne mają charakter chaotyczny? Odpowiedzi udzieliliśmy sobie powyżej. Na każdy ze stopni swobody statystycznie przypada tyle samo energii. A po co o tym mowa, skoro przed chwilą było coś o strunach i o tym, że częstotliwości fal wewnątrz pudełka jest tyle, że ich liczba dąży do nieskończoności?

Każda z częstotliwości fal elektromagnetycznych jest takim stopniem swobody, co oznacza że mamy skończoną porcję energii podzielić pomiędzy nieskończoną liczbę stopni swobody. Jeśli na każdy z nich ma przypadać tyle samo, to tego zrobić się nie da. Matematyka z pewnością się nie myli, zastosowaliśmy jej narzędzia i wyszły nam piramidalne bzdury. Oznacza to, że nasze dotychczasowe rozumienie zjawiska zupełnie nie przystaje do rzeczywistości. Obserwacje dają nam jedne dane, które odkładamy na wykresie – linię dążącą do maksimum i gwałtownie opadającą; nasze próby opisania tego z kolei sugerują coś zupełnie innego. Wszechświat się nie psuje, natomiast my mylimy się często.

Sprawcą powyższej katastrofy w głównym stopniu okazał się Lord John Rayleigh, angielski fizyk i noblista. Chcąc sformułować prawo opisujące rozkład promieniowania termicznego, skorzystał z pomocy matematyka Jamesa Jeansa. Zastanawiając się nad tym, jak sformułować prawo, które w sposób uniwersalny opisze rozkład promieniowania z powierzchni ciała doskonale czarnego, należy znaleźć matematyczny opis czegoś, co mądrze nazywa się radiancją spektralną częstotliwości. Po polsku oznacza to, ile mocy wyemitowanej przej jednostkę powierzchni takiego ciała przypada na daną czestotliwość lub długość fali. Panowie zaproponowali prawo opisane poniższym wzorem:

Wiem, że miało być bez matematyki, ale to naprawdę nie jest nic skomplikowanego. Prędkość światła jest tam potrzebna, bo mówimy przecież o emisji promieniowania elektromagnetycznego. Stała Boltzmanna to taka stała, która opisuje rozkład energii cząsteczek; jest nam potrzebna, bo opisuje proporcjonalność pomiędzy średnią energią kinetyczną pojedynczej cząsteczki a temperaturą bezwzględną (mówimy o skali Kelwina). T, czyli temperatura w kelwinach, i oczywiście lambda opisująca długość fali. Wzór elegancki, ale spójrzcie na jego mianownik: długość fali do czwartej potęgi. I tu pojawiła się katastrofa, a „tu” oznacza: gdy postanowiono przeprowadzić w związku z tym wzorem pewną operację matematyczna o bardzo nieprzyjemnej dla ucha nazwie, tj. całkowanie. Najprościej i prymitywnie mówiąc, jest to proces dodawania wielu małych elementów, aby uzyskać sumę. Jest to odpowiednik mnożenia dla dodawania lub potęgowania dla mnożenia. W rzeczywistości, gdy mówimy, że obliczamy „całkę funkcji”, to znajdujemy sumę nieskończenie wielu śladowych elementów. Tylko że w rozumowaniu Rayleigha i Jeansa była pewna słabość.

Nawet jeśli wspomnianych stopni swobody jest dowolnie dużo, to nie na każdy z zakresów promieniowania przypada ich tyle samo. Bez wchodzenia w matematykę, a dla zobrazowania, o czym mowa – jeśli na podczerwień przypada ich dajmy na to 100, na światło widzialne 1000 a na ultrafiolet 10 000, a na każdy z nich przypada średnio tyle samo energii – powiedzmy, 5 jednostek, to niezależnie od tego, jakich jednostek użyć, najwięcej emitowanej energii musi przypadać na najwyższe zakresy. Właśnie dlatego wykres, zamiast być poziomą linią, gwałtownie wznosi się ku górze, dążąc do nieskończoności.

Dla fal o dużych długościach wzór był poprawny, ale im krótsze fale, tym bardziej rozjeżdżał się z rzeczywistością, zresztą wnioski z niego płynące również: gdyby każde ciało niezależnie od swojej temperatury miałoby wypromieniowywać najwięcej energii w ultrafiolecie, to życie na naszej planecie byłoby niemożliwe, a tak wystarczą kremy z filtrem.

Do czasów, o których mówimy, nie udało się wyjaśnić, dlaczego ciała promieniują tak a nie inaczej; dziś już to wiemy. Odkrywcą rozwiązania był Max Planck, który postanowił przyjrzeć się temu spektrum dokładniej i „zauważył” w nim pewne nieciągłości. No, ale to już temat na kolejny tekst, w którym dowiemy się, dlaczego klasyczna fizyka zawiodła i jakiego ambarasu narobił wspomniany Planck kolejnym pokoleniom fizyków…

(c) by Lucas Bergowsky
Jeśli chcesz wykorzystać ten tekst lub jego fragmenty, skontaktuj się z autorem
.