Rozmiar ma znaczenie!

O tym, że Max Planck „uratował fizykę”, mogliśmy słyszeć czy to w szkole podczas lekcji, czy gdziekolwiek indziej – i jest to prawda; dodatkowo ma to mieć jakiś związek z „ciałem doskonale czarnym”, temperaturą, a i ponoć zdarzyła się jakaś „katastrofa w nadfiolecie”.

Faktycznie – gdy Max Planck zaczynał swoją karierę naukową, ówcześni naukowcy uważali, że w fizyce został już tylko jeden problem do rozwiązania i opisania teorią: dlaczego, gdy podgrzewać jakiś obiekt, np. metalową kulę, do coraz wyższej temperatury (lub równoważnie – dostarczać coraz więcej energii do tego układu), to obiekt zaczyna świecić na czerwono a potem nawet na biało! Szczegóły znajdziecie w tekstach Rozgrzany do czerwoności! i Katastrofa w ultrafiolecie…

Fizycy w czasach Plancka mieli poważny problem. I wcale nie było nim znalezienie obiektu, który pochłaniałby całe padające nań promieniowanie. Nie trzeba nam do tego czarnej dziury; w zupełności wystarczy ciało doskonale czarne, a ponieważ obiektów doskonałych w naszym Wszechświecie nie ma, to wystarczą nam takie, które „można traktować jak..”, czyli modele. Tu przyda się wymieniona wyżej stalowa kula z niewielkim otworem, pusta w środku, której wnętrze pokryto np. sadzą. Taka dziura może być traktowana jako „ciało doskonale czarne”, gdyż padające na nią promieniowanie zostanie pochłonięte we wnętrzu kuli, a to wydostające się z niej będzie związane tylko i wyłącznie z temperaturą samej kuli. Próby opisania tego zjawiska doprowadziły do bardzo problematycznych wniosków. Spójrzmy na wykres:

Według ówczesnych teorii kubek porannej kawy powinien świecić na biało-niebiesko, a maksimum emisji promieniowania przypadałoby na promieniowanie gamma! Tymczasem każdy może łatwo sprawdzić że tak nie jest. Kubek nie wydaje się „świecić”, ale gdy przyjrzeć się mu za pośrednictwem urządzenia zdolnego do rejestracji podczerwieni, zwanego popularnie termowizorem, to łatwo zauważymy, że jego obraz wyraźnie odróżnia się na tle zimnego blatu w kuchni. Nawet gwiazdy rozgrzane do tysięcy kelwinów nie są w stanie dosięgnąć ówczesnych przewidywań fizyków. Słońce zdaje się mieć barwę żółto-białą, a nawet rozgrzana do absurdalnej wartości 210 000 K gwiazda WR-102 w konstelacji Strzelca nie jest w stanie zaspokoić swoją emisją roszczeń początkowych teorii. Żaden obiekt nie emitował nieskończonej energii: była ona skończona i emitowana do pewnego maksimum (co widać jako załamanie wykresu).

Jak więc Planck pogodził ówczesne teorie z rzeczywistością? Generalnie – to metodą prób i błędów oraz desperackim trikiem matematycznym, ale o matematyce będzie niewiele. Chciałbym, aby raczej została zrozumiana logika, która kieruje naukowcami w takich przypadkach. Feynman na swoich wykładach mawiał, że jeśli teoria nie zgadza się z obserwacją, to trzeba zrozumieć, dlaczego jest błędna, i po prostu stworzyć jakąś inną… Tak, Pan raczy żartować…

Skoro wszystko zaczęło się od dziury, to do tej dziury się cofnijmy i chwilę się nad nią zastanówmy. Emitowane promieniowanie ma zależeć wyłącznie od temperatury, a więc energii. Z obserwacji wiemy, że wspomniane promieniowanie jest emitowane jako całe spektrum, przy czym maksimum przypada na określony zakres długości. Oznacza to łącznie, że emitowane są fale od dowolnie długich po dowolnie krótkie. Istnieje nieskończona liczba długości jakie może mieć fala elektromagnetyczna.

Drugą kwestią jest istnienie trzeciego wymiaru, i to dosłownie. Gdyby przestrzeń była dwuwymiarowa to fale wyglądałyby tak:

Trzeci wymiar sprawia jednak, że pojawia się możliwość ułożenia fal w różnych konfiguracjach. Rysować w 3D nie umiem, więc jestem zmuszony posłużyć się ilustracją:

No i właśnie z tego punktu, tj. z założenia nieskończonej liczby długości fal oraz tego, że im mniejsza długości fali (lub wyższa jej częstotliwość), tym więcej możliwości jej ułożenia, rozpoczęła się ścieżka ku katastrofie, którą zażegnał Max Planck. Naukowcy połączyli te dwie rzeczy z koniecznością podzielenia energii emitowanej wraz z promieniowaniem elektromagnetycznym pomiędzy te wszystkie długości fal. Zastosowano statystykę i wyszły bzdury: skoro mamy pewną wartość energii, to musimy ją podzielić pomiędzy stopnie swobody, czyli w tym przypadku długości fal zawartych w spektrum; skoro mamy nieskończoną liczbę długości fal, to mamy nieskończenie wiele stopni swobody; a skoro fale o większych energiach mają więcej stopni swobody, to ich liczba rośnie wraz z energią. Im więcej energii, tym więcej stopni swobody w zakresie danej fali. Ponieważ nie mamy żadnych preferencji, to na każdy stopień swobody powinno przypadać tyle samo energii. Przy takim rozumowaniu nie mogło wyjść nic innego niż czarna linia na wykresie i porażka fizyków.

Któraś część tego rozumowania musiała po prostu być błędna – tylko która? Odruchowo zapewne chcielibyśmy wskazać na tę o nieskończonych stopniach swobody lub o wzroście ich liczby wraz z energią fali, tylko dlaczego? Długość fali elektromagnetycznej nie ma górnej ani dolnej granicy. Przestrzeń jest trójwymiarowa więc tu nie ma błędu. Błędne musi być zatem stwierdzenie o tym, że przeciętnie na każdą z długości fal przypada tyle samo energii. To właśnie skłoniło Plancka do dokładnego przyjrzenia się prawej dolnej części wykresu, gdzie nasze przewidywania jeszcze mniej więcej zgadzały się z rzeczywistością, i do postawienia sobie pytania, co można zrobić aby teoria nagięła się do danych obserwacyjnych.

Planck długo nie mógł sobie poradzić z tym zadaniem. Wyniki zawsze były bez sensu i sugerowały zjawiska, które po prostu nie zachodzą. W akcie desperacji Planck postanowił posłużyć się czymś znanym szerzej jako „kwantowanie”. Ten rzeczownik często kojarzy się z technologią rodem z sci-fi (który to gatunek uwielbiam) lub z czarną magią, tymczasem kwantowanie jest po prostu operacją matematyczną. Fizycy przed Planckiem zakładali (bo nie mieli powodu aby uważać że jest inaczej), iż energia emitowana przez obiekt jest emitowana w sposób ciągły. Tak długo, jak trzymano się tego założenia, wszystkie teorie prowadziły do narastającej irytacji i zwątpienia. Co więc właściwie zrobił Planck?

Według definicji: Kwantowanie to proces zamiany ciągłej wielkości na dyskretną, polegający na przypisaniu jej wartości z ograniczonego zbioru dopuszczalnych poziomów.

Czyż nie brzmi to znajomo, jeśli przypomnimy sobie np., że energia elektronu w atomie jest skwantowana? To zdanie należy rozumieć w ten sposób, że nie da się zaobserwować dowolnych wartości jego energii ale tylko ściśle określone poziomy. Dokładnie tak samo postąpił Planck z wartościami energii w przypadku tej emitowanej przez ciało doskonale czarne; a naprowadziła go na to ta część wykresu, w której wartości przewidywane przez teorię są bliskie tych obserwowanych w rzeczywistości:

Jeśli wprowadzę do tego wykresu energii kropek określone poziomy, które kropki mogą zajmować, to dzieje się coś ciekawego. Pierwsza z lewej nie ma już 0,5 ale 0, druga zamiast 2,3 dokładnie 2 i tak dalej. Gdyby zsumować te wartości, okaże się, że średnia energia kropek spadła w stosunku do pierwotnej wartości – nieznacznie, ale jednak. A co, gdyby zwiększyć odległość pomiędzy poziomami, tak aby kropki spadły bardziej?

Ewidentnie średnia energia kropek spadła dramatycznie w stosunku do sytuacji pierwotnej! Bardzo podobną operacją Planck posłużył się, aby wykres unoszący się ku nieskończoności złamał się i upodobnił do tego, który stworzono na podstawie obserwacji: wzrost ku maksimum i spadek ku wartości bliskiej zera.

Liczby na wykresie mają charakter całkowicie umowny i wyobrażają liczbę stopni swobody przypadających na poszczególne długości fal. Czarna linia wyobraża sytuację, w której energia jest emitowana z ciała w sposób ciągły. Ta teoria bardzo szybko odlatuje od rzeczywistych wyników. Planck zaczął od prostego wniosku: średnia energia przypadająca na każdy stopień swobody nie jest równa E, ale mniej niż E, przy czym to, o ile mniej, zależy od długości fali. W przypadku fal długich przewidywania teorii są jedynie nieznacznie wyższe od obserwowanych, więc średnia energia jest odrobinę niższa, ale im fala krótsza, tym bardziej trzeba zmniejszyć średnią energię. I można to zrobić dokładnie tak samo jak ze średnią energią kropek w poprzedniej sytuacji! Tam wprowadziliśmy „poziomy”, które kropki mogły zajmować, a tu, zamiast przelewać wodę ze szklanki do szklanki, przenosimy ją coraz większą łyżką. Użycie takiej łyżki to właśnie to samo, co zmiana wielkości poziomów albo rozmiaru kwantu. Przy niskiej częstotliwości fali rozmiar takiego kwantu powinien być nieduży, tak aby zredukować przewidywaną średnią energię; powinien zaś wzrastać wraz ze wzrostem częstotliwości emitowanych fal, tak aby zgodnie z obserwacjami wykres po osiągnięciu pewnego maksimum gwałtownie opadł ku wartościom bliskim zeru. Podzielcie sobie 100 przez 5, 10000 przez 500, i wyniki nanieście na dwie pierwsze czerwone kropki od lewej: efekt widać od razu.

No i fajnie: wyniki zgadzają się z obserwacjami, teoria uratowana i można rozejść się do domów. Tylko nie na tym polega nauka. Planck winien jest jeszcze wyjaśnienie, skąd to przekonanie, iż rozmiar kwantu ma się zwiększać wraz ze wzrostem częstotliwości fali elektromagnetycznej. Jaki jest tu współczynnik proporcjonalności? Bo na razie przypomina to trochę działania ucznia, który, znając poprawne odpowiedzi, stara się na siłę dopasować do tego jakieś równanie. W tym przypadku mamy: En = n · ν, gdzie En oznacza energię danego poziomu, n to liczba naturalna (0, 1, 2, 3, 4, 5 i tak dalej), a ν (greckie „ni”, nie mylić z v) wyraża częstotliwość fali. Tym, co Planck dodał po licznych próbach, była słynna stała Plancka, czyli h, które wstawione do równania dało nam wyniki zgodne z obserwacjami.

Praca Plancka, choć uratowała teorię, nie została w pełni doceniona, a jego stała była uważana za pewną ciekawostkę, która jest matematycznym trikiem, ale nie jakimś przełomem. Kwanty traktowano wyłącznie w kategorii obiektów matematycznych. Aż do momentu uzyskania Nobla przez Einsteina, ale co ma do tego Einstein, który kojarzy się raczej z E = mc2 i teorią względności? Jakoś tak zapomina się, że ów uczony Nobla dostał nie za ogólną teorię względności, ale za wyjaśnienie zjawiska znanego jako efekt fotoelektryczny.

Jest to zjawisko polegające na wybijaniu elektronów z powierzchni metalu pod wpływem padającego na nią promieniowania elektromagnetycznego. Można to łatwo zaobserwować w mikrofali, gdy nierozważnie umieśmy tam np. przedmiot wykonany z aluminium. Klasyczne teorie przewidywały, że energia wybitych elektronów powinna wzrastać wraz ze wzrostem amplitudy fali (a więc jej natężenia), a efekt powinien być możliwy do zaobserwowania dla każdej częstotliwości fali przy jej odpowiednio wysokim natężeniu. Tymczasem znów obserwacje pokazały coś zupełnie innego: maksymalna energia kinetyczna wybitych elektronów nie zależała od natężenia fali, lecz jedynie od jej częstotliwości. Jak pokazywały eksperymenty, dla każdego materiału istniała częstotliwość, poniżej której efekt przestawał zachodzić niezależnie od natężenia padającego promieniowania. Trochę tak, jakby rzucać kamyczkami w okno: ziarna piasku raczej szkód nie spowodują, ale gdy sięgnąć po kostkę brukową lub cegły… Dokładnie tak samo Einstein myślał o tym, czym rzuca się w elektrony w metalu. Jeśli to, co wybija elektron, nie jest falą, ale cząstką, to wszystko zaczyna się zgadzać! Ziarnami piasku możemy sobie rzucać od rana do wieczora bez mierzalnych efektów, ale gdy zwiększyć ziarno, to efekty stają się widoczne od razu! Zaproponowane przez niego wyjaśnienie opierało się na założeniu, iż wiązka światła jest pochłaniana przez metal w postaci porcji – kwantów odpowiadających energii E = hν. Pochłaniane w całości przez elektron dostarczają one energii niezbędnej do wykonania pracy wyjścia – procesu, który umożliwia wyrwanie elektronu z powierzchni metalu. Unosi on resztę energii w postaci energii kinetycznej. Stąd właśnie wynika wzór hν = W + Ek gdzie hν oznacza częstotliwość padającego fotonu pomnożoną przez stałą Plancka, W to oczywiście praca wyjścia, a Ek jest energią kinetyczną. Einstein opublikował swoją teorię opisującą to zjawisko w 1905 r., a Nobla dostał w 1921. Niewiele wcześniej niejaki R. Millikan, zagorzały przeciwnik jego teorii, potwierdził ją eksperymentalnie po 10 latach eksperymentów mających ją obalić: mierząc energie maksymalne wybijanych elektronów i nanosząc je na wykres, zauważył, że można je połączyć prostą linią, tworząc wykres funkcji, której nachylenie swoją wartością bardzo odpowiadało pewnej stałej. Pewnie domyślacie się, że ową stałą była właśnie stała Plancka.

Naukowcy jak zwykle starali się wyjaśnić coś niezwykle prostego i codziennego: dlaczego przedmioty rozgrzane do pewnej temperatury zaczynają się żarzyć. I po raz kolejny okazało się, że jeśli tylko uchylić zasłonę tego, co zdaje się rzeczywistością, to znajdujemy świat, w którym wszystkie nasze teorie okazują się zbyt ubogie wobec bogactw Wszechświata.

(c) by Lucas Bergowsky
Jeśli chcesz wykorzystać ten tekst lub jego fragmenty, skontaktuj się z autorem
.

Autor

Lucas Bergowsky
Chemik zafascynowany fizyką kwantową.
Użytkownik Twittera (@Lucas_z_Escobar) o nietypowym poczuciu humoru. Fan gier komputerowych i książek.
BlueSky: @lucas-z-escobar.bsky.social‬

Możesz również polubić…

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *