Samouczek hazardzisty. Część 2: Anomalie i paradoksy

Część 1: Permutacje i kombinacje

Wielka kumulacja

Przyjrzyjmy się jeszcze raz wzorowi na prawdopodobieństwo k sukcesów w N prób Bernoulliego, gdy prawdopodobieństwo sukcesu wynosi p.

W naszym przykładzie mamy do czynienia z bardzo małym prawdopodobieństwem p ≈ 1/14 000 000, ale za to N jest liczbą bardzo dużą. Przyjęliśmy 1 400 000 jako typową liczbę zakładów biorących udział w pojedynczym losowaniu Lotto. Spróbujmy sprawdzić, co się stanie, jeśli nagle wyjątkowo duża liczba graczy ustawi się w kolejkach do kolektur. Taki wzrost zainteresowania jest charakterystyczny dla wielkich kumulacji, gdy przez pewien czas nikt nie zdobywa głównej wygranej i przeznaczone na nią pule przechodzą na kolejne losowania. Prawdopodobieństwo wygranej p pozostaje stałe i jednakowe dla każdego wyboru 6 różnych elementów z 49 (o ile maszyna losująca działa tak, jak powinna), natomiast rośnie potencjalna wysokość nagrody, a to może zwabić nawet ludzi, którzy nie grają w Lotto regularnie.

Przypuśćmy, że za przyczyną takiego chwilowego wzrostu zainteresowania w losowaniu bierze udział 14 milionów zakładów (odpowiada to mniej więcej połowie liczby dorosłych mieszkańców Polski).1 Prawdopodobieństwo p, jak już wiemy, pozostaje niezmienne, natomiast N jest teraz dziesięciokrotnie wyższe i wynosi 14 000 000. Tak się składa, a właściwie tak dobrałem liczby dla równego rachunku, że p = 1/N (poprzednio było p = 0,1/N). Nasz wzór wygląda teraz tak:

co dla k ⩾ 3 można zapisać:

Jeżeli k jest małe w porównaniu z N (na przykład nie przekracza 10, czyli jest ponad milion razy mniejsze niż N), to drugi występujący tu czynnik, czyli (1 – 1/N)Nk, jest niemal dokładnie równy (1 – 1/N)N (różnicy nie widać nawet na szóstym miejscu po przecinku), czyli prawie nie zależy od k. Wartość tego wyrażenia jest, jak już wiemy z poprzedniego odcinka, bardzo dobrym przybliżeniem następującej liczby:

e–1 = 1/e = 1/2,7182818… = 0,367879…

Przyjrzyjmy się teraz pierwszemu czynnikowi. Ile wynosi on dla kolejnych liczb k = 0, 1, 2, 3…?

Ponieważ N jest liczbą baaardzo dużą w porównaniu z jednością, możemy uznać wartości takie jak 1/N, 3/N, 2/N2 za niemal równe zeru. Wynika stąd, że:

P(0|N) ≈ e–1/0! = 0,367879…
P(1|N) ≈ e–1/1! = 0,367879…
P(2|N) ≈ e–1/2! = 0,183939…
P(3|N) ≈ e–1/3! = 0,061313…

Nietrudno sprawdzić, że ogólnie dla niewielkiego k mamy P(k|N) ≈ e–1/k!, a zatem:

P(4|N) ≈ e–1/4! = 0,015328…
P(5|N) ≈ e–1/5! = 0,003065…
P(6|N) ≈ e–1/6! = 0,000510…

Nie musimy się martwić o pogarszającą się wraz ze wzrostem k dokładność przybliżenia, bo kolejne prawdopodobieństwa i tak maleją bardzo szybko prawie do zera.

Co oznaczają te wyniki? Otóż kiedy liczba prób N jest równa odwrotności prawdopodobieństwa sukcesu p (a przy tym pierwsza z tych liczb jest bardzo duża, a druga bardzo mała), to prawdopodobieństwo wystąpienia zera sukcesów jest równe prawdopodobieństwu dokładnie jednego sukcesu. Każde z nich wynosi ok. 36,8%. Prawdopodobieństwo wystąpienia dokładnie dwóch sukcesów wynosi ok. 18,4%, trzech sukcesów – ok. 6,1%, czterech sukcesów – ok. 1,5%, pięciu – ok. 0,3% itd. W porównaniu z sytuacją, gdy liczba kuponów była równa 1 400 000, wydatnie wzrasta zarówno prawdopodobieństwo, że ktoś w ogóle zdobędzie główną wygraną (63,2%), jak i prawdopodobieństwo, że takich wygranych będzie więcej niż jedna (26,4%). W tym ostatnim przypadku główna wygrana zostaje podzielona pomiędzy dwóch lub więcej graczy.

Nadmiar zwycięzców

Widzimy jednak, że już możliwość jednoczesnego wystąpienia pięciu sukcesów jest mała nawet przy tak wielkiej liczbie grających. Dla każdej kolejnej liczby k maleje ona ok. k razy i dość szybko staje się astronomicznie mała. A jednak zdarzają się sytuacje takie jak 7 listopada tego roku, gdy aż 11 graczy trafiło szóstkę i musiało się podzielić skumulowaną wygraną. Zdarzały się zresztą większe liczby jednoczesnych zwycięzców. Jak to możliwe? Czyżbyśmy gdzieś popełnili gruby błąd w obliczeniach? Może maszyna losująca jest nieuczciwa? A może niektórzy gracze mają zdolności parapsychiczne?

Ostatnią możliwość możemy spokojnie wykluczyć. Gdyby istnieli prawdziwi jasnowidze, nie byłoby na świecie gier losowych, których organizatorzy robią dobry interes na ludzkiej skłonności do hazardu. Przypomnijmy sobie jednak, że obliczając prawdopodobieństwa wygranych, czyniliśmy pewne założenia, które być może rozmijają się z rzeczywistością. Uznaliśmy na przykład, że można modelować grę w Lotto jako proces Bernoulliego. W takim procesie każdy wybór gracza powinien być jednakowo prawdopodobny, a poszczególne próby powinny być od siebie niezależne. Czy tak jest w istocie?

Niekoniecznie, bo ludzie wyjątkowo słabo sprawdzają się w roli generatorów liczb losowych (czy raczej pseudolosowych) i nawet próbując wybierać 6 z 49 liczb „losowo”, mniej lub bardziej świadomie trzymają się jakiegoś schematu. Schemat nie musi być oczywisty, w rodzaju 4–9–16–25–36–49 albo 3–7–13–19–29–37. Na przykład unikanie liczb „okrągłych” albo próby „równomiernego” rozłożenia typowanych liczb na blankiecie to też są pewne schematy mające wpływ na prawdopodobieństwa wyboru.

W przypadku kumulacji nieco ponad połowa graczy (55,6% wg informacji Totalizatora Sportowego) stosuje metodę na chybił trafił (zdając się na propozycje generatora liczb losowych). Pozostali zwykle wolą samodzielnie zakreślać liczby. Wskutek tego ich wybory często układają się w jakiś mniej więcej regularny deseń. Gracz może bowiem wychodzić ze skądinąd słusznego założenia, że np. kombinacja 1–2–3–4–5–6 (często wybierana) ma takie samo prawdopodobieństwo wylosowania jak dowolna inna, powiedzmy 5–10–24–29–41–45. Tyle tylko, że na pomysł wybrania tej pierwszej kombinacji z całą pewnością w każdym losowaniu wpadają tysiące osób. Gdyby przypadkiem maszyna losująca wygenerowała akurat ten ciąg, okazałoby się, że pulę głównej nagrody trzeba podzielić na wielką liczbę niewielkich wypłat.

Ryc. 1.

W przypadku losowania z 7 listopada 11 osób niezależnie od siebie, ale podążając za strategią wyboru na tyle typową, że łatwo ją zrekonstruować, obstawiło sześć liczb jak na ryc. 1. Gracze poszli tu na łatwiznę, zaznaczając wszystkie pola pierwszej kolumny. Było ich pięć, musieli więc wybrać jeszcze jedną liczbę i zrobili to, kierując się umiłowaniem symetrii. Gdyby maszyna przypadkiem wylosowała liczby z ryc. 2, zapewne także każdy, kto je wytypował, musiałby się podzielić nagrodą ze sporym gronem współzwycięzców. Milionowa wygrana przeszłaby im wszystkim koło nosa.

Ryc. 2.

Wśród ok. 14 milionów możliwych kombinacji niewątpliwie istnieją tysiące takich, które ze względów czysto psychologicznych są statystycznie preferowane przez graczy. Zatem różne kombinacje wybierane są ze zróżnicowanym prawdopodobieństwem, co powoduje znaczne odchylenia od prostego modelu Bernoulliego. Nie da się w prosty sposób sformalizować wspomnianych preferencji, aby skorygować wynikające z nich skrzywienie, choć zapewne można badać ich wpływ na statystyki wygranych w symulacjach komputerowych. Sam fakt, że zdarzają się losowania z kilkunastoma „zwycięzcami”, dowodzi istnienia tego rodzaju zaburzeń.

Jeśli już jesteśmy na tyle nierozsądni, że nałogowo gramy w Lotto, to teoria gier powinna nas przynajmniej skłaniać do stosowania takiej strategii, która w przypadku sukcesu minimalizuje prawdopodobieństwo, że musimy się z kimś podzielić najwyższą wygraną. Rozsądne jest zatem obstawianie liczb na chybił trafił, tak aby wybór był nieodróżnialny od „czystej losowości” i dzięki temu maksymalnie niezależny od wyborów innych graczy. Przed chwilą skorzystałem z jednego w wielu dostępnych w internecie generatorów liczb (pseudo)losowych, aby wybrać kombinację niezależną od moich własnych subiektywnych skłonności. Rezultat widać na ryc. 3.

Ryc. 3.

Gdybym jednak zaprezentował mój „losowy” wybór publicznie, mogłoby się zdarzyć, że wiele osób niezależnie od siebie wpadłoby na pomysł skopiowania tej kombinacji („bo skoro autor twierdzi, że opłaca się typować takie liczby”…). Podobny efekt mogą mieć publikowane przez Totalizator Sportowy informacje o tym, jakie liczby najwięcej razy wypadały w dotychczasowych losowaniach albo jakie są najczęściej obstawiane. Rozważmy ekstremalną sytuację z roku 1994, gdy w jednym z losowań szóstkę trafiło jednocześnie aż 80 (słownie: osiemdziesiąt) osób. Zwycięska kombinacja wyglądała tak (kupon miał wtedy inną formę niż dziś):

Ryc. 4.

Nie wydaje się ona „wyróżniona psychologicznie” w żaden sposób. Narzuca się jednak podejrzenie graniczące z pewnością, że zwycięskie trafienia musiały mieć wspólną inspirację, gdyby bowiem spełniały warunki procesu Bernoulliego, prawdopodobieństwo losowej koincydencji byłoby nieodróżnialne od zera. Niestety Totalizator Sportowy nie archiwizował ówcześnie wyników w formie elektronicznej, brak więc potencjalnie istotnej informacji – na przykład o tym, czy zwycięzcy pochodzili z różnych części Polski, czy może grali w tej samej kolekturze. Według wielu doniesień gracze skopiowali jakiś przykład ilustrujący poprawny sposób skreślania typowanych liczb. Po trzydziestu latach trudno jednak zrekonstruować wszystkie okoliczności zaistniałej anomalii, a część powielanych publicznie plotek na ten temat zdążyła się przerodzić w legendę miejską.

Paradoks powtórzonej szóstki

Jeśli w danym losowaniu prawidłowo działająca maszyna wygenerowała szóstkę liczb, to prawdopodobieństwo, że ten sam wynik powtórzy się w kolejnym, jest oczywiście takie samo, jak prawdopodobieństwo trafienia szóstki przez gracza, czyli ok. 1/14 000 000. Przyjmując, że rocznie odbywa się w przybliżeniu 300 losowań, jakie są szanse, że te same liczby zostaną wylosowane ponownie co najmniej jeden raz w ciągu 10 lat, czyli w kolejnych trzech tysiącach losowań? Rachunek jest prosty. Wystarczy od jedności odjąć prawdopodobieństwo, że w 3000 niezależnych prób ani razu nie wystąpi dana kombinacja. W pojedynczym losowaniu prawdopodobieństwo jej niepojawienia się jest równe 1 – 1/14 000 000. Trzeba tę liczbę podnieść do potęgi 3000:2

(1 – 1/14 000 000)3000 = 0,99999992857…3000 = 0,9997857…

Zatem z prawdopodobieństwem 0,9997857… ≈ 99,98% upatrzona szóstka nie powtórzy się w sekwencji 3000 losowań. Natomiast prawdopodobieństwo jej ponownego wystąpienia jest równe 0,0002142… ≈ 0,02%. Jest ono zatem niewielkie. Mówimy jednak o powtórzeniu się pewnej konkretnej, z góry ustalonej kombinacji. A jakie jest prawdopodobieństwo, że w czasie 10 lat jakakolwiek kombinacja zostanie wylosowana dwukrotnie?

Jest to zagadnienie analogiczne do tzw. paradoksu urodzin: Dobieramy losowo grupę ludzi. Jak liczna powinna ona być, żeby z prawdopodobieństwem ponad 50% dwie osoby miały tę samą datę urodzin (dzień, miesiąc)? Okazuje się, że wystarczą 23 osoby. Dla 50 osób prawdopodobieństwo to wzrasta do 97%. Wydaje się to sprzeczne z intuicją, bo przecież dla daty zadanej z góry szansa, że ktokolwiek w grupie 50 osób ma tego dnia urodziny, wynosi ok. 1 – (1 – 1/365)50 = 0,12818…, czyli mniej więcej 12,8%.3 Wrażenie paradoksu znika jednak, gdy uświadomimy sobie, że spośród 50 osób można wybrać C(50, 2) =(50 · 49)/2 = 1225 różnych par, których daty urodzin porównujemy. Innymi słowy, liczba par branych pod uwagę jest ponad trzy razy większa niż liczba dni w roku.

W przypadku losowań Lotto (w okresie 10 lat) bierzemy pod uwagę C(3000, 2) = (3000 · 2999)/2 = 4 498 500 par losowań. Bez znaczącego uszczerbku dla precyzji oszacowania możemy tę liczbę zaokrąglić do 4,5 miliona. W każdej parze prawdopodobieństwo pełnej zgodności szóstek wynosi 1/14 000 000. Zatem prawdopodobieństwo, że wszystkie szóstki są różne, wynosi z zadowalającą dokładnością (1 – 1/14 000 000)4 500 000. Zamiast od razu uruchamiać kalkulator, zauważmy jeszcze (znając już właściwości funkcji ex), że:

(Oczywiście na samym końcu w nagrodę za cierpliwość wolno już użyć kalkulatora). Po odjęciu tej liczby od jedności dostajemy prawdopodobieństwo, że któryś z wyników losowania wystąpi dwa lub więcej razy: 1 – 0,725 = 0,275, czyli 27,5%. Tak jak w przypadku paradoksu urodzin, jest to prawdopodobieństwo znacznie wyższe, niż większość ludzi mogłaby intuicyjnie oczekiwać.

Ponieważ gry typu Lotto oparte na losowaniu 6 liczb zpośród 49 są popularne w wielu krajach poza Polską (m.in. w Niemczech, Hiszpanii, Bułgarii, Grecji czy Kanadzie), można się spodziewać, że na przestrzeni wielu lat już gdzieś musiało dojść do powtórki. I rzeczywiście takie przypadki odnotowano parokrotnie. Najbardziej spektakularnym przykładem powtórzonej szóstki była kombinacja 4–15–23–24–35–43, którą wylosowano dwukrotnie w bułgarskim Toto2 (6/49) – najpierw 6 września 2009 r. (niedziela), a następnie w kolejnym losowaniu, 10 września (czwartek). Przeprowadzone dochodzenie nie wykazało żadnych nieprawidłowości w działaniu maszyny losującej.4 Pikanterii dodaje temu przypadkowi następujący fakt: w pierwszym losowaniu nikt nie wygrał głównej nagrody; w drugim musiało się nią podzielić 18 zwycięzców. I to już na pewno nie był „cud statystyczny”, tylko konsekwencja faktu, że zawsze pewnej liczbie ludzi przyjdzie do głowy, by obstawić szczęśliwą szóstkę z poprzedniego losowania.

Przypisy

  1. Oczywiście jedna osoba może zawrzeć kilka zakładów, więc indywidualnych graczy nie musi być aż tak wielu. ↩︎
  2. Wynika to stąd, że wymnażamy przez siebie prawdopodobieństwa 3000 niezależnych, jednakowo prawdopodobnych zdarzeń. ↩︎
  3. Pomijamy drobne komplikacje, takie jak istnienie lat przestępnych. ↩︎
  4. Wylosowano zresztą różne permutacje tej szóstki, zob. BBC News. Uwaga: cytowane w artykule oszacowanie prawdopodobieństwa powtórki tego typu jest błędne (znacznie zaniżone). ↩︎

Katastrofa w ultrafiolecie…

Poprzedni tekst Rozgrzany do czerwoności! zakończyłem poniższym wykresem:

Na początku ubiegłego wieku ówcześni naukowcy starali się rozgryźć, dlaczego ten wykres ma właśnie taki kształt, a nie inny. Naniesiono na niego wyniki obserwacji, z których jasno wynikało, iż wszystkie ciała we Wszechświecie, zależnie od swojej temperatury, emitują promieniowanie elektromagnetyczne (nazywane w tym kontekście termicznym) z różną intensywnością: dla ciał o temperaturze od pokojowej do kilkuset stopni Celsjusza maksimum intensywności przypada na podczerwień; dla wyższych temperatur maksimum przesuwa się w lewo w kierunku światła widzialnego i ultrafioletu (co doskonale pasuje do obserwacji promieniowania emitowanego przez gwiazdy). Zachodzi więc pytanie: czym jest czarna linia opisana jako „Classical theory”? Jest efektem pierwszych prób opisania tego zjawiska za pomocą „naszych dotychczasowych teorii, które jak do tej pory świetnie się sprawdzały”. Tylko że w tym przypadku doprowadziły do czegoś, co jest opisane w szkolnych podręcznikach jako „katastrofa w ultrafiolecie”. Te same podręczniki zwykły opisywać to zagadnienie w dość ogólny sposób, z którego potem człowiek niewiele pamięta, zwłaszcza że była tam jakaś podejrzana matematyka.

Matematyka to po prostu język, który umożliwia opisanie zjawisk w bardzo ogólny, wręcz uniwersalny sposób (oczywiście w zadanym zakresie i w granicach naszego pojmowania). W tym przypadku próba opisania promieniowania termicznego w sposób matematyczny doprowadziła do tego, co odczytujemy z wykresu: ciało jak najbardziej powinno emitować promieniowanie elektromagnetyczne i niezależnie od temperatury większość emisji powinna przypadać na ultrafiolet, a emitowana energia dąży do nieskończoności.

Jeśli gdziekolwiek w opisie pojawia się nieskończoność, to jest to dla nas jasny sygnał, że ewidentnie nie rozumiemy tego, na co patrzymy. Wspomniana katastrofa ma miejsce w naszych obliczeniach, ale nie w rzeczywistości. Skąd się ona wzięła i jak do niej doprowadzono? W szkole nie zrozumiałem z tego nic, ale z pomocą przyszedł wspomniany w poprzednim tekście Feynman i jego przekonanie, że nie ma sensu uczyć się samej matematyki, jeśli nie wiadomo, co się za nią kryje.

No to co się kryje za wspomnianym wykresem? To dość proste, ale nie rozmawiajmy o matematyce i zapomnijmy, że jakikolwiek wykres widzieliśmy kiedykolwiek na oczy – nie ma takich rzeczy. Macie gumkę recepturkę względnie jakiś instrument strunowy? No to naciągnijcie gumkę (struny zazwyczaj już są), uderzcie w nią i poobserwujcie, co się dzieje (możecie też posłuchać).

Otóż struna drga! No właśnie – drga w określony sposób, gdyż wzdłuż niej przesuwa się fala. W tym przypadku mechaniczna, a jeśli przyjrzeć się dokładniej, to właściwie są to dwie fale nakładające się na siebie. Taki rodzaj fali nazywamy falą stojącą. To teraz spójrzmy, co się stanie jeśli zmienić długość fali – na przykład skrócić strunę, chwytając ją dokładnie w połowie. Ewidentnie widać, że zwiększyła się jej częstotliwość. Nasuwa się wobec tego pytanie: ile razy można powtórzyć tę operację? Nieskończenie wiele razy.

Tylko jaki to ma związek z omawianym tematem, czyli promieniowaniem termicznym, ciałem doskonale czarnym i katastrofą w ultrafiolecie? Fundamentalny! W końcu fala to fala – obojętnie, czy mechaniczna, czy elektromagnetyczna. Wróćmy na chwilę do ilustracji urządzenia, które symuluje ciało doskonale czarne (tj. takie które absorbuje całe padające nań promieniowanie).

Przypominam jak to działa. Modelem ciała doskonale czarnego jest szczelina w pudełku, którego ściany od wewnątrz są pokryte np. sadzą. O ile zewnętrzne ścianki takiego pudełka będą odbijać padające na nie promieniowanie, o tyle to, co wpadnie przez szczelinę, już tam zostanie, dlatego całe promieniowanie wydostające się ze szczeliny będzie zależeć tylko i wyłącznie od temperatury. No to co się tam dzieje i po co te fale? Weźmy latarkę, poświećmy przez chwilę na to pudło i pomyślmy, cośmy najlepszego narobili!

Światło, a więc strumień fotonów, wpadło do wnętrza pudełka i zostało pochłonięte na jego ściankach. Konkretnie to fotony zostały pochłonięte przez elektrony będące składnikiem atomów, z których każdy obiekt materialny się składa. I co dalej? Skoro pudełko emituje promieniowanie elektromagnetyczne, to są to z pewnością fale tego rodzaju, które docierając do przeciwległej ścianki pudełka, odbijają się, nakładając się na siebie. Jaki to rodzaj fal? Stojące fale elektromagnetyczne. Z obserwacji wiemy, że każde ciało, które emituje promieniowanie termiczne, emituje je we wszystkich zakresach częstotliwości. Stąd wiemy, że tych stojących fal wewnątrz pudełka możemy się spodziewać we wszystkich zakresach – od radiowych po najwyższe częstotliwości. Katastrofa zaczęła się, gdy próbowano to wszystko opisać za pomocą czegoś, co groźnie nazywa się zasadą ekwipartycji energii.

To naprawdę nic trudnego do zrozumienia, jeśli tylko chwilę się zastanowić nad pewną kwestią. Usiądźmy przy trzech koszach na śmieci, do których ludzie co jakiś czas coś wrzucają, poobserwujmy trochę i spróbujmy sobie odpowiedzieć na pytanie: który z koszy pod koniec dnia będzie wypełniony najbardziej przy założeniu że ludzie wrzucają tam odpadki całkowicie losowo, a każdy z nich zajmuje dokładnie taką samą objętość? Pytanie na które nie da się odpowiedzieć? Nic z tych rzeczy – skoro mamy trzy kosze i absolutnie żadnych preferencji co do wyboru, to oznacza, że każdy z nich będzie wybierany średnio tak samo często, a więc pod koniec dnia wszystkie będą wypełnione tak samo.

Podobna sytuacja zachodzi z cząstkami, które również mają coś do wyrzucenia na kilka różnych sposobów – energię, która powoduje ich drgania. I teraz kolejne pytanie: w którym kierunku te drgania mają miejsce? Cząstka, jeśli jest jedna, to ma do wyboru osie x, y, z, czyli trzy stopnie swobody, jak nazywają to statystycy. No i teraz jeśli tych cząstek jest biliard to która z osi będzie preferowana najczęściej, jeśli drgania termiczne mają charakter chaotyczny? Odpowiedzi udzieliliśmy sobie powyżej. Na każdy ze stopni swobody statystycznie przypada tyle samo energii. A po co o tym mowa, skoro przed chwilą było coś o strunach i o tym, że częstotliwości fal wewnątrz pudełka jest tyle, że ich liczba dąży do nieskończoności?

Każda z częstotliwości fal elektromagnetycznych jest takim stopniem swobody, co oznacza że mamy skończoną porcję energii podzielić pomiędzy nieskończoną liczbę stopni swobody. Jeśli na każdy z nich ma przypadać tyle samo, to tego zrobić się nie da. Matematyka z pewnością się nie myli, zastosowaliśmy jej narzędzia i wyszły nam piramidalne bzdury. Oznacza to, że nasze dotychczasowe rozumienie zjawiska zupełnie nie przystaje do rzeczywistości. Obserwacje dają nam jedne dane, które odkładamy na wykresie – linię dążącą do maksimum i gwałtownie opadającą; nasze próby opisania tego z kolei sugerują coś zupełnie innego. Wszechświat się nie psuje, natomiast my mylimy się często.

Sprawcą powyższej katastrofy w głównym stopniu okazał się Lord John Rayleigh, angielski fizyk i noblista. Chcąc sformułować prawo opisujące rozkład promieniowania termicznego, skorzystał z pomocy matematyka Jamesa Jeansa. Zastanawiając się nad tym, jak sformułować prawo, które w sposób uniwersalny opisze rozkład promieniowania z powierzchni ciała doskonale czarnego, należy znaleźć matematyczny opis czegoś, co mądrze nazywa się radiancją spektralną częstotliwości. Po polsku oznacza to, ile mocy wyemitowanej przej jednostkę powierzchni takiego ciała przypada na daną czestotliwość lub długość fali. Panowie zaproponowali prawo opisane poniższym wzorem:

Wiem, że miało być bez matematyki, ale to naprawdę nie jest nic skomplikowanego. Prędkość światła jest tam potrzebna, bo mówimy przecież o emisji promieniowania elektromagnetycznego. Stała Boltzmanna to taka stała, która opisuje rozkład energii cząsteczek; jest nam potrzebna, bo opisuje proporcjonalność pomiędzy średnią energią kinetyczną pojedynczej cząsteczki a temperaturą bezwzględną (mówimy o skali Kelwina). T, czyli temperatura w kelwinach, i oczywiście lambda opisująca długość fali. Wzór elegancki, ale spójrzcie na jego mianownik: długość fali do czwartej potęgi. I tu pojawiła się katastrofa, a „tu” oznacza: gdy postanowiono przeprowadzić w związku z tym wzorem pewną operację matematyczna o bardzo nieprzyjemnej dla ucha nazwie, tj. całkowanie. Najprościej i prymitywnie mówiąc, jest to proces dodawania wielu małych elementów, aby uzyskać sumę. Jest to odpowiednik mnożenia dla dodawania lub potęgowania dla mnożenia. W rzeczywistości, gdy mówimy, że obliczamy „całkę funkcji”, to znajdujemy sumę nieskończenie wielu śladowych elementów. Tylko że w rozumowaniu Rayleigha i Jeansa była pewna słabość.

Nawet jeśli wspomnianych stopni swobody jest dowolnie dużo, to nie na każdy z zakresów promieniowania przypada ich tyle samo. Bez wchodzenia w matematykę, a dla zobrazowania, o czym mowa – jeśli na podczerwień przypada ich dajmy na to 100, na światło widzialne 1000 a na ultrafiolet 10 000, a na każdy z nich przypada średnio tyle samo energii – powiedzmy, 5 jednostek, to niezależnie od tego, jakich jednostek użyć, najwięcej emitowanej energii musi przypadać na najwyższe zakresy. Właśnie dlatego wykres, zamiast być poziomą linią, gwałtownie wznosi się ku górze, dążąc do nieskończoności.

Dla fal o dużych długościach wzór był poprawny, ale im krótsze fale, tym bardziej rozjeżdżał się z rzeczywistością, zresztą wnioski z niego płynące również: gdyby każde ciało niezależnie od swojej temperatury miałoby wypromieniowywać najwięcej energii w ultrafiolecie, to życie na naszej planecie byłoby niemożliwe, a tak wystarczą kremy z filtrem.

Do czasów, o których mówimy, nie udało się wyjaśnić, dlaczego ciała promieniują tak a nie inaczej; dziś już to wiemy. Odkrywcą rozwiązania był Max Planck, który postanowił przyjrzeć się temu spektrum dokładniej i „zauważył” w nim pewne nieciągłości. No, ale to już temat na kolejny tekst, w którym dowiemy się, dlaczego klasyczna fizyka zawiodła i jakiego ambarasu narobił wspomniany Planck kolejnym pokoleniom fizyków…

(c) by Lucas Bergowsky
Jeśli chcesz wykorzystać ten tekst lub jego fragmenty, skontaktuj się z autorem
.