Zasada nieoznaczoności a zapis przyszłości

Przeglądając Twittera, natrafiłem na wpis, którego fragment na ilustracji poniżej:

Czy przyszłość każdego z nas jest zapisana? Śmiem wątpić; bliższa mi jest wersja Sary Connor z „Terminatora”: – Nie ma przeznaczenia, bo sami tworzymy nasz los 🙂 „Gdybyśmy mieli urządzenie zdolne do utrwalenia wszystkich parametrów chwili…”, to i tak nie miałoby to żadnego znaczenia dla poznania naszej przyszłości. Skąd we mnie takie przekonanie? Pod wpisem pozwoliłem sobie umieścić żartobliwy komentarz dotyczący Heisenberga i zasady nieoznaczoności: nasz Wszechświat po prostu tak nie działa.

Zasadę nieoznaczoności często tłumaczy się w ten sposób, że nie da się jednocześnie zmierzyć dokładnie dwóch parametrów danego obiektu, np. pędu i położenia, jak na poniższym rysunku:

„Nie da się zmierzyć” – czyli gdyby się dało, to Pan Profesor miałby rację? Nie, z jakiegoś powodu ludzie uczepili się tego „pomiaru” w opisie zasady nieoznaczoności, a tymczasem nawet gdyby nie było żadnych pomiarów, to i tak nie dalibyśmy rady zapisać wszystkich parametrów chwili. Głównie dlatego, że one po prostu nie istnieją w tej formie, jaką sobie wyobrażamy.

Generalnie wszystko było by dobrze, gdy nie Einstein, Planck, de Broglie, Heisenberg i kilku innych, którzy popełnili mechanikę kwantową. Materia w naszym Wszechświecie, jak pewnie pamiętacie, ma taką złośliwą cechę: w zależności od tego, jak sprawdzać, to zachowuje się jakby była cząstkami albo falami, choć nie jest ani jednym, ani drugim. Na lekcjach chemii mówi się o materii tak, jakby składała się z cząstek w postaci kulek o takim czy innym ładunku – i na potrzeby chemii taki opis jest jak najbardziej w porządku; na lekcjach fizyki zaś dowiadujemy się, że światło, które jest falą elektromagnetyczną, można też traktować jako strumień cząstek o określonych energiach, tj. fotonów. I to zazwyczaj wystarczy, żeby przyjąć postawę: „I tak nic z tego nie zrozumiem”.

O tym, skąd pomysł na fotony, szczegółowo opowiemy sobie w tekście, który będzie kolejną częścią po Rozgrzany do czerwoności! i Katastrofa w ultrafiolecie…

Dobra, ale teraz, choćby pokrótce: skąd u fizyków na przełomie XIX i XX wzięła się ta idea sformułowana jako dualizm korpuskularno-falowy? Trochę z obserwacji, a trochę z intuicji de Broglie’a. W tamtych czasach odkryto i potwierdzono istnienie promieniowania elektromagnetycznego, z tym że nie wszystkie obserwacje dało się wyjaśnić, przyjmując, iż to promieniowanie ma naturę fal. Istniały eksperymenty dotyczące zjawisk takich takich jak efekt fotoelektryczny, promieniowanie ciała doskonale czarnego etc., których wyników w żaden sposób nie dało się wyjaśnić przy założeniu, że światło składa się z fal. Problemy z wyjaśnieniem znikły, gdy przyjęto, iż promieniowanie elektromagnetyczne można opisać równorzędnie tak, jakby omiatały nas nie fale, ale krople o określonych wielkościach.

Do takich wniosków doprowadziły między innymi obserwacje zjawiska znanego jako efekt fotoelektryczny. Polega ono na tym, iż gdy oświetlić powierzchnię metalu światłem o określonej częstotliwości, to wybije ono elektrony, powodując wyraźny odczyt elektroskopu. Zjawisko zachodzi wyłącznie przy określonych częstotliwościach światła. Można to zrozumieć bardzo prosto, przyglądając się efektowi gradobicia. Maleńkie kuleczki są po prostu irytujące, duże – zabójcze. Podobnie Einstein wyobraził sobie zjawisko efektu fotoelektrycznego: światło w tym opisie nie przychodzi w falach, ale w paczkach o energiach zależnych od częstotliwości fali światła.

Tylko że takie paczki są w tym opisie bezmasowe, więc jak to pogodzić z E = mc2? Najlepiej to dać dokończyć Einsteinowi: „mc2” to tylko człon całego równania i opisuje on energię spoczynkową. Jeśli obiekt się porusza (a foton robi to zawsze i niezależnie od przyjętego układu odniesienia), to prawdziwy opis tej sytuacji równaniem wygląda tak: E2 = (pc)2 + (mc2)2. Ponieważ mówimy o cząstce, która ma parametr m=0, to całość upraszcza się do następującej postaci: E = pc. Foton może wybić elektron z powierzchni metalu, ponieważ posiada energię i porusza się, a więc posiada pęd opisany jako: p=E/c. Z tego opisu łatwo wywnioskować, że pęd to nic innego niż matematyczny opis tego, jak obiekt się porusza i jakie ma to skutki dla otoczenia.

No i co miałoby z tego wynikać dla samej zasady nieoznaczoności i dualizmu? Ano, przyjrzał się temu kolejny naukowiec, który znał również inne prace Einsteina oraz Plancka. Mam tu na myśli de Broglie’a, o którym wspominałem wcześniej. Wiedział on z prac Plancka, że energię cząstki światła można również wyrazić następująco: E = hν gdzie E oznacza energię, h – stałą Plancka a greckie ν (czytaj: „ni”, nie mylić z v) opisuje częstotliwość fali. Postanowił przyjrzeć się temu dokładniej i przeprowadził kilka operacji z tym równaniem. Zapewne jemu też ν myliło się z v więc postanowił zapisać to inaczej:

Mnie też to nie rzuciło się w oczy od razu – całość trochę naświetlił mi Feynman. Prędkość światła nie pasowała de Broglie’owi po tej stronie równania, więc matematycznie przeniósł ją na drugą, aby sprawdzić, czy całość będzie miała dalej sens, i wtedy to zobaczył 🙂 Przecież pęd fotonów czy też fal elektromagnetycznych wraża związek p=E/c, a więc jeśli prawdziwy jest związek pomiędzy pędem a samą długością fali, to mamy równanie które łączy w sobie korpuskularne i falowe cechy materii.

Po co o tym mówię? Bo de Broglie na tym nie poprzestał, tylko zaczął zastanawiać się nad tym, co właściwie zapisał. Prawa fizyki są wszędzie takie same, zatem skoro foton ma cechy zarówno cząstki, jak i fali, to uznał on na logikę, że nie ma powodu, aby to samo nie dotyczyło na przykład elektronów. Znając pęd elektronu, można obliczyć długość i częstotliwość fali z nim związaną i przy pomocy odpowiedniego eksperymentu sprawdzić, czy elektron zachowuje się jak zwarta kulka, czy też rzeczywistość jest o wiele dziwniejsza, niż nam się zdaje. Te rozważania zaprzątały jego głowę w 1924. Niedługo później, bo już w 1927, udało się uzyskać doświadczalne potwierdzenie jego hipotezy. Panowie Davisson i Germer strzelali do niklowej płytki strumieniem elektronów i zliczali za pomocą detektorów ustawionych pod różnymi kątami, jak się odbijają od jej powierzchni. Dla czegoś tak małego jak elektron nawet najgładsza powierzchnia (z naszej perspektywy) jest pełna nierówności; założyli więc oni, że zwarte kulki będą odbijać się pod różnymi kątami, a wzór na ekranie detektora będzie rozproszony, chyba że de Broglie miał słuszność ze swoim równaniem wówczas…

fot. domen publiczna

Na ilustracji powyżej wyniki eksperymentu, na ilustracji poniżej wynik eksperymentu z dwiema szczelinami (przy użyciu fal światła) gdyby ktoś miał wątpliwości czy dobrze to rozumie:

fot. domena publiczna

Tak mniej więcej i pokrótce doszliśmy do tego, że materia jest… ciężko powiedzieć czym, ale ma pewne właściwości, które potrafimy badać i zapisywać. No, choćby ten pęd. Tylko znów: jaki to ma związek z zasadą nieoznaczoności? Przyszli kolejni naukowcy, spojrzeli na to rozumowanie i zapytali się, czy dla takiej fali materii da się stworzyć równanie falowe, którego rozwiązanie pozwoli nam np. określić położenie elektronu?

Tak, da się, a twórcą tego równania był znany dręczyciel kotów Schrödinger. W czasie wypadu w góry z kochanką stworzył takie coś:

Możemy sobie teraz rozpisać po kolei, co oznacza to wszystko po kolei, rozwiązać je sobie dla przykładowej cząstki, przekształcić do innych postaci itp. Tylko po co? Już teraz pewnie większość Czytelników zastanawia się, czego nie zrozumie za chwilę. W razie czego wyjaśniam: tego co wyraża to równanie nie rozumiał sam autor, który zresztą podważał własną teorię na każdym kroku, bo też nie mógł przyjąć do wiadomości, że jeśli przyjrzeć się rzeczywistości dokładniej, to robi się bardzo dziwnie. To równanie w każdym razie zawiera w sobie prawie wszystkie parametry obiektu takiego jak elektron (nie ma tu np. spinu). Jeśli rozwiązać takie równanie, to wyjdzie nam na przykład taka fala:

To nie jest ścieżka ruchu elektronu ani linia życia czy cokolwiek innego, tylko po prostu elektron. No dobra, a te górki i doliny – co oznaczają? No, to było właśnie dobre pytanie! Te „górki i doliny”, nawiasem mówiąc, w równaniu reprezentuje grecka litera Ψ, czyli psi, oznaczająca funkcję falową. Bez wchodzenia w matematykę: Schrödinger nie wiedział, czy to równanie ma jakikolwiek sens empiryczny, ale na pewien trop wpadł Max Born – równie wielki fizyk tamtego okresu.

Twierdził on, że owe górki i doliny nie oznaczają nic fizycznego, ale jeśli Ψ potraktować matematyką i zapisać tak: |Ψ|2, czyli jako kwadrat modułu funkcji (co to znaczy z matematycznego na polski można sobie dla tego opisu darować), to te „górki i doliny” oznaczają prawdopodobieństwo natrafienia na cząstkę w danym miejscu. Na ilustracji powyżej nie oznacza to, że elektron jest w dwóch miejscach na raz, albo że pojawia się i znika raz w jednym, a raz w drugim, ale że jeśli chcemy znaleźć elektron (czy inną cząstkę o danych parametrach), to największe szanse mamy w danym punkcie przestrzeni – tam gdzie „falowanie fali” czyli jej amplituda ma największą wartość. Oznacza to ni mniej ni więcej, tylko że obiekty kwantowe po prostu same w sobie nie mają określonego położenia, dopóki go nie zmierzymy, np. oświetlając dane miejsce światłem. Zanim nie zaczniemy szukać (i znajdziemy), to nie można powiedzieć, że taki obiekt ma określone położenie w przestrzeni. Spójrzcie raz jeszcze na ilustrację, ona mówi nam wprost, że nie ma pewności, jest prawdopodobieństwo.

No właśnie? Jakie to ma wszystko znaczenie – te fale, pędy, funkcje itp.? Zróbmy to samo, co Feynman, i zastanówmy się, co to wszystko znaczy po kolei. Wyobraźmy sobie elektron, który ma ściśle określony pęd – czyli mamy elektron, który przemierza przestrzeń z określoną, stałą prędkością. Feynman w tym momencie zapewne by się uśmiechnął i zapytał, czy aby na pewno; przecież de Broglie coś odkrył: p = h/λ. Nie mówimy o cząstce w formie kulki frunącej przed siebie, ale o fali, która wyglądałaby w jednowymiarowym uproszczeniu mniej więcej tak:

Jeśli szukamy długości fali dla cząstki, która ma określony pęd p, to musimy przekształcić wzór do postaci λ = h/p. Stała Plancka jest stała, a pęd też ma określoną wartość, więc wynikiem musi być fala mająca „górki i doliny” w równych odległościach od siebie. Ponieważ pęd ma tylko jedną wartość, to gdziekolwiek spojrzeć, fala wygląda tak samo. Teraz pomyślcie, co to oznacza dla opisu zasady nieoznaczoności.

Skoro pęd mamy dobrze oznaczony, to jego nieokreśloność wynosi 0, a ile wobec tego wynosi nieokreśloność położenia? Gdzie należy szukać cząstki? Jeśli jedna wielkość wynosi zero, to druga musi zmierzać do nieskończoności, a cały zapis traci sens. Przypatrzcie się tej fali i porównajcie ją z poprzednią. W tym przypadku wartość Ψ wynosi wszędzie tyle samo, co oznacza, że prawdopodobieństwo znalezienia obiektu o takich parametrach jest takie samo w każdym miejscu Wszechświata – a to bez sensu. Co trzeba zrobić, aby cząstka miała jednak bardziej oznaczone położenie? Jak sprawić aby amplituda tej fali w którymś z jej punktów była równa 0? Jak to powiedział Feynman na jednym swoich wykładów: „Po prostu dodaj kolejną falę o nieco innej długości, i zobacz, jak wygląda ich suma”.

I teraz już widać, że są takie obszary, gdzie prawdopodobieństwo namierzenia obiektu jest większe, bo takie nakładające się fale wzajemnie się wzmacniają i wygaszają. Tylko spójrzcie, co to oznacza: dodaliśmy falę, a więc obiekt nie ma już teraz tylko jednej wartości p, ale p1 i p2, co automatycznie powoduje, że nieważne, jak byśmy próbowali mierzyć – mamy przysłowiowe szanse 50 na 50 że będzie to p1 lub p2. Te wartości, jak widzicie z ilustracji, nie różnią się jakoś dramatycznie, ale są wyraźnie inne. I to, z którym z tych parametrów przyłapiemy cząstkę na detektorze, absolutnie nie wynika z niczego. Po prostu albo orzeł, albo reszka.

Tyle właściwie teorii. Możemy oczywiście sobie jeszcze popróbować tworzyć różne fale, ale widać od razu, że im bardziej zlokalizowany ma być obiekt, tym więcej fal (a więc możliwych wartości pędu) należy dodać, co zwiększa nam jego nieoznaczoność – i w drugą stronę tak samo. Żeby nasze zabawy mogły dać jakiś sens fizyczny, to wynik musi spełniać poniższą zależność:

Wartości tych parametrów tj. nieoznaczoności pędu i położenie nie mogą po prostu wynosić zero bo w konsekwencji otrzymujemy albo obiekt z ściśle określonym pędem ale jednocześnie wiemy że że należy go szukać z równym prawdopodobieństwem wszędzie lub obiekt który jest maksymalnie zlokalizowany ale jednocześnie z niepewnością pędu dążącą do maksimum a takich obiektów po prostu nie ma – a to w konsekwencji wyklucza możliwość „zapisania wszystkich parametrów chwili”. Nasza przyszłość nie jest nigdzie zapisana bo jej po prostu jeszcze nie ma – musimy tam dosłownie dotrzeć zmieniając swoją pozycję w czasie. Póki co dotarliśmy do końca tych przydługich rozważań. Wszelkiego rodzaju uwagi, komentarze, argumenty przeciw mile widziane.

A już kolejnym razem powiemy sobie o Plancku i o tym jak łyżką narobił bałaganu w fizyce.

(c) by Lucas Bergowsky
Jeśli chcesz wykorzystać ten tekst lub jego fragmenty, skontaktuj się z autorem
.

Katastrofa w ultrafiolecie…

Poprzedni tekst Rozgrzany do czerwoności! zakończyłem poniższym wykresem:

Na początku ubiegłego wieku ówcześni naukowcy starali się rozgryźć, dlaczego ten wykres ma właśnie taki kształt, a nie inny. Naniesiono na niego wyniki obserwacji, z których jasno wynikało, iż wszystkie ciała we Wszechświecie, zależnie od swojej temperatury, emitują promieniowanie elektromagnetyczne (nazywane w tym kontekście termicznym) z różną intensywnością: dla ciał o temperaturze od pokojowej do kilkuset stopni Celsjusza maksimum intensywności przypada na podczerwień; dla wyższych temperatur maksimum przesuwa się w lewo w kierunku światła widzialnego i ultrafioletu (co doskonale pasuje do obserwacji promieniowania emitowanego przez gwiazdy). Zachodzi więc pytanie: czym jest czarna linia opisana jako „Classical theory”? Jest efektem pierwszych prób opisania tego zjawiska za pomocą „naszych dotychczasowych teorii, które jak do tej pory świetnie się sprawdzały”. Tylko że w tym przypadku doprowadziły do czegoś, co jest opisane w szkolnych podręcznikach jako „katastrofa w ultrafiolecie”. Te same podręczniki zwykły opisywać to zagadnienie w dość ogólny sposób, z którego potem człowiek niewiele pamięta, zwłaszcza że była tam jakaś podejrzana matematyka.

Matematyka to po prostu język, który umożliwia opisanie zjawisk w bardzo ogólny, wręcz uniwersalny sposób (oczywiście w zadanym zakresie i w granicach naszego pojmowania). W tym przypadku próba opisania promieniowania termicznego w sposób matematyczny doprowadziła do tego, co odczytujemy z wykresu: ciało jak najbardziej powinno emitować promieniowanie elektromagnetyczne i niezależnie od temperatury większość emisji powinna przypadać na ultrafiolet, a emitowana energia dąży do nieskończoności.

Jeśli gdziekolwiek w opisie pojawia się nieskończoność, to jest to dla nas jasny sygnał, że ewidentnie nie rozumiemy tego, na co patrzymy. Wspomniana katastrofa ma miejsce w naszych obliczeniach, ale nie w rzeczywistości. Skąd się ona wzięła i jak do niej doprowadzono? W szkole nie zrozumiałem z tego nic, ale z pomocą przyszedł wspomniany w poprzednim tekście Feynman i jego przekonanie, że nie ma sensu uczyć się samej matematyki, jeśli nie wiadomo, co się za nią kryje.

No to co się kryje za wspomnianym wykresem? To dość proste, ale nie rozmawiajmy o matematyce i zapomnijmy, że jakikolwiek wykres widzieliśmy kiedykolwiek na oczy – nie ma takich rzeczy. Macie gumkę recepturkę względnie jakiś instrument strunowy? No to naciągnijcie gumkę (struny zazwyczaj już są), uderzcie w nią i poobserwujcie, co się dzieje (możecie też posłuchać).

Otóż struna drga! No właśnie – drga w określony sposób, gdyż wzdłuż niej przesuwa się fala. W tym przypadku mechaniczna, a jeśli przyjrzeć się dokładniej, to właściwie są to dwie fale nakładające się na siebie. Taki rodzaj fali nazywamy falą stojącą. To teraz spójrzmy, co się stanie jeśli zmienić długość fali – na przykład skrócić strunę, chwytając ją dokładnie w połowie. Ewidentnie widać, że zwiększyła się jej częstotliwość. Nasuwa się wobec tego pytanie: ile razy można powtórzyć tę operację? Nieskończenie wiele razy.

Tylko jaki to ma związek z omawianym tematem, czyli promieniowaniem termicznym, ciałem doskonale czarnym i katastrofą w ultrafiolecie? Fundamentalny! W końcu fala to fala – obojętnie, czy mechaniczna, czy elektromagnetyczna. Wróćmy na chwilę do ilustracji urządzenia, które symuluje ciało doskonale czarne (tj. takie które absorbuje całe padające nań promieniowanie).

Przypominam jak to działa. Modelem ciała doskonale czarnego jest szczelina w pudełku, którego ściany od wewnątrz są pokryte np. sadzą. O ile zewnętrzne ścianki takiego pudełka będą odbijać padające na nie promieniowanie, o tyle to, co wpadnie przez szczelinę, już tam zostanie, dlatego całe promieniowanie wydostające się ze szczeliny będzie zależeć tylko i wyłącznie od temperatury. No to co się tam dzieje i po co te fale? Weźmy latarkę, poświećmy przez chwilę na to pudło i pomyślmy, cośmy najlepszego narobili!

Światło, a więc strumień fotonów, wpadło do wnętrza pudełka i zostało pochłonięte na jego ściankach. Konkretnie to fotony zostały pochłonięte przez elektrony będące składnikiem atomów, z których każdy obiekt materialny się składa. I co dalej? Skoro pudełko emituje promieniowanie elektromagnetyczne, to są to z pewnością fale tego rodzaju, które docierając do przeciwległej ścianki pudełka, odbijają się, nakładając się na siebie. Jaki to rodzaj fal? Stojące fale elektromagnetyczne. Z obserwacji wiemy, że każde ciało, które emituje promieniowanie termiczne, emituje je we wszystkich zakresach częstotliwości. Stąd wiemy, że tych stojących fal wewnątrz pudełka możemy się spodziewać we wszystkich zakresach – od radiowych po najwyższe częstotliwości. Katastrofa zaczęła się, gdy próbowano to wszystko opisać za pomocą czegoś, co groźnie nazywa się zasadą ekwipartycji energii.

To naprawdę nic trudnego do zrozumienia, jeśli tylko chwilę się zastanowić nad pewną kwestią. Usiądźmy przy trzech koszach na śmieci, do których ludzie co jakiś czas coś wrzucają, poobserwujmy trochę i spróbujmy sobie odpowiedzieć na pytanie: który z koszy pod koniec dnia będzie wypełniony najbardziej przy założeniu że ludzie wrzucają tam odpadki całkowicie losowo, a każdy z nich zajmuje dokładnie taką samą objętość? Pytanie na które nie da się odpowiedzieć? Nic z tych rzeczy – skoro mamy trzy kosze i absolutnie żadnych preferencji co do wyboru, to oznacza, że każdy z nich będzie wybierany średnio tak samo często, a więc pod koniec dnia wszystkie będą wypełnione tak samo.

Podobna sytuacja zachodzi z cząstkami, które również mają coś do wyrzucenia na kilka różnych sposobów – energię, która powoduje ich drgania. I teraz kolejne pytanie: w którym kierunku te drgania mają miejsce? Cząstka, jeśli jest jedna, to ma do wyboru osie x, y, z, czyli trzy stopnie swobody, jak nazywają to statystycy. No i teraz jeśli tych cząstek jest biliard to która z osi będzie preferowana najczęściej, jeśli drgania termiczne mają charakter chaotyczny? Odpowiedzi udzieliliśmy sobie powyżej. Na każdy ze stopni swobody statystycznie przypada tyle samo energii. A po co o tym mowa, skoro przed chwilą było coś o strunach i o tym, że częstotliwości fal wewnątrz pudełka jest tyle, że ich liczba dąży do nieskończoności?

Każda z częstotliwości fal elektromagnetycznych jest takim stopniem swobody, co oznacza że mamy skończoną porcję energii podzielić pomiędzy nieskończoną liczbę stopni swobody. Jeśli na każdy z nich ma przypadać tyle samo, to tego zrobić się nie da. Matematyka z pewnością się nie myli, zastosowaliśmy jej narzędzia i wyszły nam piramidalne bzdury. Oznacza to, że nasze dotychczasowe rozumienie zjawiska zupełnie nie przystaje do rzeczywistości. Obserwacje dają nam jedne dane, które odkładamy na wykresie – linię dążącą do maksimum i gwałtownie opadającą; nasze próby opisania tego z kolei sugerują coś zupełnie innego. Wszechświat się nie psuje, natomiast my mylimy się często.

Sprawcą powyższej katastrofy w głównym stopniu okazał się Lord John Rayleigh, angielski fizyk i noblista. Chcąc sformułować prawo opisujące rozkład promieniowania termicznego, skorzystał z pomocy matematyka Jamesa Jeansa. Zastanawiając się nad tym, jak sformułować prawo, które w sposób uniwersalny opisze rozkład promieniowania z powierzchni ciała doskonale czarnego, należy znaleźć matematyczny opis czegoś, co mądrze nazywa się radiancją spektralną częstotliwości. Po polsku oznacza to, ile mocy wyemitowanej przej jednostkę powierzchni takiego ciała przypada na daną czestotliwość lub długość fali. Panowie zaproponowali prawo opisane poniższym wzorem:

Wiem, że miało być bez matematyki, ale to naprawdę nie jest nic skomplikowanego. Prędkość światła jest tam potrzebna, bo mówimy przecież o emisji promieniowania elektromagnetycznego. Stała Boltzmanna to taka stała, która opisuje rozkład energii cząsteczek; jest nam potrzebna, bo opisuje proporcjonalność pomiędzy średnią energią kinetyczną pojedynczej cząsteczki a temperaturą bezwzględną (mówimy o skali Kelwina). T, czyli temperatura w kelwinach, i oczywiście lambda opisująca długość fali. Wzór elegancki, ale spójrzcie na jego mianownik: długość fali do czwartej potęgi. I tu pojawiła się katastrofa, a „tu” oznacza: gdy postanowiono przeprowadzić w związku z tym wzorem pewną operację matematyczna o bardzo nieprzyjemnej dla ucha nazwie, tj. całkowanie. Najprościej i prymitywnie mówiąc, jest to proces dodawania wielu małych elementów, aby uzyskać sumę. Jest to odpowiednik mnożenia dla dodawania lub potęgowania dla mnożenia. W rzeczywistości, gdy mówimy, że obliczamy „całkę funkcji”, to znajdujemy sumę nieskończenie wielu śladowych elementów. Tylko że w rozumowaniu Rayleigha i Jeansa była pewna słabość.

Nawet jeśli wspomnianych stopni swobody jest dowolnie dużo, to nie na każdy z zakresów promieniowania przypada ich tyle samo. Bez wchodzenia w matematykę, a dla zobrazowania, o czym mowa – jeśli na podczerwień przypada ich dajmy na to 100, na światło widzialne 1000 a na ultrafiolet 10 000, a na każdy z nich przypada średnio tyle samo energii – powiedzmy, 5 jednostek, to niezależnie od tego, jakich jednostek użyć, najwięcej emitowanej energii musi przypadać na najwyższe zakresy. Właśnie dlatego wykres, zamiast być poziomą linią, gwałtownie wznosi się ku górze, dążąc do nieskończoności.

Dla fal o dużych długościach wzór był poprawny, ale im krótsze fale, tym bardziej rozjeżdżał się z rzeczywistością, zresztą wnioski z niego płynące również: gdyby każde ciało niezależnie od swojej temperatury miałoby wypromieniowywać najwięcej energii w ultrafiolecie, to życie na naszej planecie byłoby niemożliwe, a tak wystarczą kremy z filtrem.

Do czasów, o których mówimy, nie udało się wyjaśnić, dlaczego ciała promieniują tak a nie inaczej; dziś już to wiemy. Odkrywcą rozwiązania był Max Planck, który postanowił przyjrzeć się temu spektrum dokładniej i „zauważył” w nim pewne nieciągłości. No, ale to już temat na kolejny tekst, w którym dowiemy się, dlaczego klasyczna fizyka zawiodła i jakiego ambarasu narobił wspomniany Planck kolejnym pokoleniom fizyków…

(c) by Lucas Bergowsky
Jeśli chcesz wykorzystać ten tekst lub jego fragmenty, skontaktuj się z autorem
.

Brązowe karły, czyli niedorobione gwiazdy

Ryc. 1. Diagram Hertzsprunga–Russella wielkości i widma gwiazd. W prawym dolnym rogu brązowe karły. Licencja CC BY-SA 2.5. Richard Powell. 

Są gwiazdy i są planety. Znamy gwiazdy karłowate oraz gwiazdy-olbrzymy. Rozpiętość wielkości planet też jest ogromna. Nie każdy obiekt niebędący gwiazdą można automatycznie nazwać planetą. Nie może być za mały ani za duży. Z jednej strony ograniczeniem jest nieprecyzyjna definicja planetoid i planet karłowatych, z drugiej zaś… Istnieją gazowe olbrzymy wielkości naszego Jowisza, który jest jeszcze planetą, ale gwiazdą już nie jest. Dlaczego? Bo nie świeci własnym światłem? Ale przecież Lucas Bergowsky już tłumaczył w tekście Rozgrzany do czerwoności!, że każde ciało materialne świeci, emituje promieniowanie elektromagnetyczne, w tym światło podczerwone. 

Jowisz jest planetą, gdyż nie zachodzą w nim reakcje termojądrowe. Mamy więc gotową definicję, kiedy „kończą się” planety. Ale kiedy zaczynają się gwiazdy? Reakcji jądrowych jest wiele. W prawdziwej, “rasowej” gwieździe zachodzi reakcja syntezy wodoru w hel, a przynajmniej od tej reakcji zaczyna się „życie” gwiazdy, gdyż zachodzą w niej także inne reakcje syntezy jąder cięższych pierwiastków, tzw. „metali” (które wcale metalami być nie muszą). Powyższy wywód sugeruje, że każdy duży obiekt kosmiczny jest albo planetą albo gwiazdą, a ostrym i wyraźnym rozróżnieniem jest istnienie albo nieistnienie reakcji syntezy jądrowej. Niestety tak nie jest! Jak to w życiu: jest czekolada, jest nie-czekolada i są wyroby czekoladopodobne. Są też obiekty gwiazdopodobne. To tak zwane brązowe karły

Ryc. 2. Brązowe karły Teide 1 , Gliese 229 B i WISE 1828+2650 w porównaniu do czerwonego karła Gliese 229A , Jowisza i Słońca. 
Licencja CC BY 3.0, MPIA/V. Joergens – Pierwsze wydanie w „
Joergens, Viki, 50 Years of Brown Dwarfs – From Prediction to Discovery to Forefront of Research, Astrophysics and Space Science Library 401, Springer

Słońce jest typową, przeciętną gwiazdą, jego masa jest około 1000 razy większa od masy planety-olbrzyma, czyli Jowisza. Taka różnica wielkości sugeruje istnienie obiektów o masach pośrednich rzędu kilkudziesięciu mas Jowisza, czyli kilku procent masy Słońca. Nazywamy je brązowymi karłami. Są zbyt małe, aby mogła w nich zachodzić reakcja przemiany wodoru w hel, ale wystarczająco masywne, by zachodziła reakcja syntezy jąder deuteru:

p + p → D + e+ + νe

gdzie:
p to proton (jądro wodoru),
D to deuter (izotop wodoru z jednym protonem i jednym neutronem),
e+ to pozyton (antycząstka elektronu),
νe​ to neutrino elektronowe.

Reakcja ta zachodzi tylko przez kilka pierwszych milionów lat istnienia brązowego karła, mają wtedy typ widmowy L (temperatura 1400-2200 K) i słabo świecą na czerwono, pomarańczowo lub brązowo. Przez pozostały czas tylko stygną i stygną, stopniowo obniżając typ widmowy do T i kończąc na Y. Dlatego są tak trudno wykrywalne, także ze względu na niewielką masę.

Początkowo (lata 60.) nazywano je czarnymi karłami, ale „zbrązowiały” po tym, jak zaczęto je mylić z całkowicie wystygłymi białymi karłami. Aby jeszcze bardziej zamącić w głowach PT Czytelników wspomnę, że istnieją czerwone karły, a brązowe po całkowitym ostygnięciu także stają się „czarne”. 

Podstawowym kryterium uznania obiektu kosmicznego za brązowego karła jest obecność pierwiastka litu 7Li. W „normalnych” gwiazdach lit występuje przez krótki czas gdyż szybko przekształca się w hel 4He w reakcji z jądrami wodoru. 

Drugim charakterystycznym wyróżnikiem brązowego karła jest dużo większy udział promieniowania podczerwonego w emitowanym widmie. Nic dziwnego, jego temperatura i czerwonawa barwa widmowa jednoznacznie determinuje rozkład częstotliwości promieniowania w okolicach podczerwieni.

Trzecim wyróżnikiem brązowych karłów są obserwowalne ilości metanu, bo (nie wiem, czy wspominałem) mogą one mieć one coś w rodzaju atmosfery. Zimniejsze, już ostygłe obiekty mogą gromadzić w atmosferze metan, który jest wykrywalny metodą spektrografii. Atmosfera brązowych karłów jest w ogóle dość egzotyczna. Dość powiedzieć, że unoszą się w niej chmury krzemionki i padają żelazne deszcze.

Pierwszego brązowego karła odkryto w 1995 roku, ale wcześniej, w latach osiemdziesiątych XX wieku, istniały takie podejrzenia wobec kilku niesklasyfikowanych jeszcze obiektów. Trudności w obserwacji spowodowały, że wiedza o brązowych karłach była (i dalej jest) wątła i pełna niepotwierdzonych hipotez. Szacowano na przykład, że ich liczebność we Wszechświecie dwukrotnie przekracza liczbę gwiazd. Dopiero teleskop kosmiczny WISE skorygował te szacunki do ⅙, czyli na każde sześć gwiazd przypada jeden brązowy karzeł. 

Pozostając przy hipotezach, pierwszy brązowy karzeł nazwany Gliese 229 B jest prawdopodobnie układem podwójnym. Tak przynajmniej wynika z ostatnich obserwacji W. M. Keck Observatory na Hawajach i Very Large Telescope w Chile. 

Ryc. 3. Wizualizacja czerwonego karła Gliese 229 B. K. Miller, R. Hurt/Caltech/IPAC, źródło: https://www.caltech.edu/about/news/its-twins-mystery-of-famed-brown-dwarf-solved

Wcześniej nazwałem brązowe karły obiektami gwiazdopodobnymi. Niestety, jest to nieco nieprecyzyjne określenie. Po wypaleniu się, które następuje dość szybko, obiekty te zaczynają stygnąć. Proces szybko postępuje, a w wielu z nich synteza termojądrowa zatrzymuje się całkowicie. Wspomniany wcześniej Gliese 229 B jest wielkości Jowisza (widać to na Ryc. 2), może więc być uznany po wypaleniu się za planetę o większej (80x) niż zwykle gęstości. Tak więc z obiektu gwiazdopodobnego staje się obiektem planetopodobnym. Brązowe karły mogą być też omyłkowo uznane za planety. Nie po raz pierwszy zdarza się więc, że klasyfikacja naukowa, zwłasza ta uświęcona tradycją, musi zostać zrewidowana. Przekonaliśmy się o tym dobitnie na przykładzie systematyki zwierząt (i roślin), kiedy to klasyczna systematyka linneuszowska, oparta na podobieństwie, musiała się poddać w konfrontacji z badaniami genetycznymi, a zewnętrzne podobieństwo nagle przestało się przekładać na bliskie pokrewieństwo ewolucyjne.

To dobrze, że nauka jest żywym organizmem, nieskostniałym. Powyższe przykłady dowodzą, że jest de facto procesem doskonalenia się przez nieustanne wątpienie i kwestionowanie istniejącego stanu, nie ma w niej świętości i dogmatów ani autorytetów. Taką świętością wydawała się klasyczna mechanika newtonowska no i proszę, co się z nią stało. Minęło 200 lat i została zdegradowania do roli przybliżenia, szczególnego przypadku mechaniki relatywistycznej w warunkach „ciepłej wody w kranie”. A wydawała się nie do ruszenia. Podobnie dzieje się z odkrywaniem elementarnej struktury materii oraz w kosmologii.