Chaos, czyli efekt motyla

Źródło: https://informaconnect.com/the-butterfly-effect-on-the-aviation-market/

Wbrew stereotypom teoria chaosu ani nie jest ani chaotyczna, ani nie opisuje zjawisk całkowicie nieprzewidywalnych. Matematyka chaosu jest jak najbardziej ścisła. Jedyną cechą „równań chaosu” odróżniającą je od „normalnych” równań jest ich specyficzna nieliniowość i wynikające z niej zależności typu „z małej chmury duży deszcz”. Teoria chaosu stwierdza, że ​​w pozornym chaosie i przypadkowości złożonych systemów fizycznych istnieją wzorce, wzajemne połączenia, pętle sprzężenia zwrotnego, powtarzalność, samopodobieństwo (fraktale) i samoorganizacja. Jest to teoria interdyscyplinarna, przydatna zarówno przy prognozowaniu pogody czy ekonomii, jak i badaniu zjawisk społecznych i demografii.

Pozorna przypadkowość pewnych zjawisk sprawiła, że pierwsze próby ich wytłumaczenia doprowadziły do powstania tej mylącej, lecz medialnie chwytliwej nazwy. Z pozoru wydaje się, że matematyka rządząca jej prawami jest czymś w rodzaju matematycznej metafizyki. Aby zrozumieć teorię chaosu, należy umieć odróżnić układ deterministyczny od układu przewidywalnego. Układ deterministyczny to taki układ, którego stan zależy od warunków początkowych, a eksperyment modelujący taki układ jest powtarzalny. Nieprzewidywalność układu wynika z dokładności obliczeń numerycznych, których wyniki pośrednie są zaokrąglane powyżej progu wrażliwości, a wynik końcowy źle zaplanowanych obliczeń może nie odpowiadać rzeczywistemu stanowi końcowemu modelowanego systemu. To tak zwany chaos deterministyczny lub zwyczajnie chaos. Celnie zdefiniował to Edward Lorenz: Chaos: Kiedy teraźniejszość determinuje przyszłość, ale przybliżona teraźniejszość nie determinuje w przybliżeniu przyszłości.

Zachowanie chaotycznych systemów deterministycznych można w zasadzie przewidzieć. „W zasadzie” jest adekwatnym określeniem, gdyż nieliniowość tych systemów pozwala przewidzieć ich zachowanie tylko do pewnego czasu. Po tym czasie symulacje zaczynają się „rozbiegać”, nawet przy zastosowaniu największej dokładności obliczeń. Tak się dzieje na przykład z pogodą, której prognozy są wiarygodne tylko na kilka dni naprzód. Potem zaczyna się loteria. Czas, przez który rozbieżności obliczeniowe mogą być tolerowane nie zakłócając ogólnego obrazu symulacji i jej zgodności z systemem fizycznym, czyli inaczej przewidywalności systemu, nazywamy czasem Lapunowa. Czasy Lapunowa są różne dla różnych systemów chaotycznych: chaotyczne obwody elektryczne to około 1 milisekundy; systemy pogodowe – kilka dni; Układ Słoneczny – 4 do 5 milionów lat. Nie można obliczyć użytecznej prognozy zachowania układu (np. pogody) w przedziale dłuższym niż 2-3-krotność czasu Lapunowa. 

Chciałbym też uczynić małą dygresję na temat wspomnianego Lapunowa. Tak, to TEN Lapunow, matematyk i fizyk matematyczny, którego nazwisko często spotykali studenci kierunków ścisłych na wykładach (i egzaminach) z matematyki, automatyki, teorii sterowania i rachunku prawdopodobieństwa.

Edward Norton Lorenz, matematyk i meteorolog, jest twórcą pojęcia chaosu deterministycznego, którego matematyczna teoria wywarła rewolucyjny wpływ na nasze postrzeganie świata. Meteorologia była wyjątkowo wdzięczną dziedziną dla odkryć dokonanych przez Lorenza. Pierwszym krokiem było zakwestionowanie liniowych modeli pogodowych. Zjawiska pogodowe są z natury mocno nieliniowe, nieproporcjonalne, a często mają naturę katastrofy. Od tego odkrycia do teorii chaosu był już tylko mały krok. Symulacje pogody Lorenz wykonywał na prymitywnych komputerach (był początek lat 60. XX wieku). Zaokrąglanie wyników pośrednich do 3 cyfr po przecinku, mimo obliczeń o precyzji 6-cyfrowej, prowadziło do dużych rozbieżności wyników prognoz przy minimalnej zmianie warunków początkowych. Tu znowu posłużę się słowami Lorenza z 1963 roku: Dwa stany różniące się niezauważalnymi ilościami mogą ostatecznie przekształcić się w dwa znacznie różne stany… Jeśli zatem jest jakikolwiek błąd w obserwacji obecnego stanu – a w każdym rzeczywistym systemie takie błędy wydają się nieuniknione – akceptowalne przewidywanie stanu chwilowego w odległej przyszłości może okazać się niemożliwe…. Ze względu na nieuniknioną niedokładność i niekompletność obserwacji pogody, precyzyjne prognozowanie na bardzo dalekie odległości wydaje się nie istnieć.

Spostrzeżenia te, w odniesieniu do badań pogodowych i słynnego przykładu trzepoczącego skrzydłami japońskiego motyla wywołującego tornado w Teksasie, doprowadziły go do metafory zwanej efektem motyla (początkowo w nazwie miała być mewa). Efektem motyla nazywamy wrażliwość systemu na dowolnie małe zmiany warunków początkowych lub zmianę trajektorii w trakcie trwania procesu. Lorenz zdefiniował i nazwał ten efekt, obserwując obliczenia modelu pogodowego o danym stanie początkowym, które zostały zaokrąglone w pozornie nieistotny dla wyników sposób. Zauważył, że model pogody nie odtworzył poprzednich wyników przy niezaokrąglonych danych początkowych. Bardzo mała zmiana warunków początkowych spowodowała znacząco inny wynik. Wyniki swoich badań na temat chaosu opisał w książce The Essence of Chaos w 1993 roku. Efekt motyla opisał w niej jako: […] zjawisko polegające na tym, że niewielka zmiana stanu układu dynamicznego powoduje, że kolejne stany znacznie różnią się od stanów, które wystąpiłyby bez tej zmiany.

Jednym z bardziej znanych przykładów fizycznych teorii chaosu jest problem trzech ciał, zdefiniowany przez francuskiego matematyka Henri Poincarégo w 1890. W odróżnieniu od układu dwóch ciał, dla którego istnieje uogólnione rozwiązanie w postaci wzorów i warunków początkowych, problem trzech ciał nie ma rozwiązania w postaci zamkniętej, czyli składającego się tylko ze stałych, zmiennych i skończonego zbioru podstawowych funkcji połączonych operatorami arytmetycznymi ( +, −, ×, ÷ i potęgowanie) oraz złożeń tych funkcji. Matematyczny opis problemu trzech ciał jest układem różniczkowych równań ruchu, chaotycznym dla większości stanów początkowych.


Typowym przykładem układu trzech ciał jest układ Słońce-Ziemia-Księżyc. Chiński pisarz science fiction Cixin Liu napisał trylogię, której pierwszy tom, zatytułowany nomen omen „Problem trzech ciał” (nagroda Hugo, 2015) opisuje cywilizację pozaziemską żyjącą na planecie w gwiazdowym układzie potrójnym (stąd trzy ciała), która nie jest w stanie przewidzieć przyszłego stanu swojego układu planetarnego. W związku z tym cała przyroda na planecie wykształciła ewolucyjnie mechanizm przetrwania w ekstremalnych warunkach wywoływanych przez nieprzewidywalnie zbliżające się i oddalające gwiazdy układu podwójnego i towarzyszące im naprzemienne fazy ekstremalnego gorąca i chłodu.

Teoria chaosu jest z powodzeniem stosowana w praktyce: w geologii, biologii, informatyce (kryptografia), ekonomii, inżynierii, finansach, meteorologii, antropologii, fizyce, polityce i socjologii, demografii, robotyce. 

Od kilkudziesięciu lat kryptografia wykorzystuje teorię chaosu. I to nie tylko w algorytmach kryptograficznych, ale także do obliczania funkcji skrótu, kompresji obrazów i dźwięku, generowania bezpiecznych sekwencji liczb pseudolosowych i steganografii (ukrywanie zaszyfrowanego przekazu w obrazie, pliku binarnym lub dźwiękowym). Robotyka, to kolejna dziedzina wykorzystująca teorię chaosu w projektowaniu bardziej naturalistycznego zachowania robotów w naturalnym, chaotycznym otoczeniu. Zamiast krok po kroku dostosowywać się do otoczenia, zastosowano „chaotyczne”, efektywniej dostosowujące się modele predykcyjne. Przykładem są dwunożne roboty pasywne, których dynamika ruchu jest kontrolowana przez algorytmy wykorzystujące teorię chaosu. Także modelowanie ekonomiczne wykorzystuje teorię chaosu. Procesy ekonomiczne są z natury rzeczy pseudo-stochastyczne, niepoddające się klasycznemu modelowaniu. Teorię chaosu wykorzystuje się także do analizy pozornie przypadkowych szeregów czasowych. Nieliniowa analiza danych, szczególnie ilościowa analiza powtarzalności, pozwala odnaleźć prawidłowości i cykliczność w pozornie przypadkowym ciągu danych czasowych. W praktyce oznacza to, że można skutecznie modelować skutki gospodarcze takich katastrofalnych i nieprzewidywalnych zjawisk jak na przykład epidemia Covid-19. 

For want of a nail, the shoe was lost.
For want of a shoe, the horse was lost.
For want of a horse, the rider was lost.
For want of a rider, the battle was lost.
For want of a battle, the kingdom was lost.
And all for the want of a horseshoe nail.

Dwa razy dwa to cztery… A trochę mniej niż dwa razy trochę więcej niż dwa?

Czytałem dziś podręcznik do fizyki mojej córki, będącej w pierwszej klasie LO (Fizyka, ISBN 978-883028093-4). Na stronie 87 w przykładzie 10.4 jest omawiane „spadanie ciała, które ma niewielką gęstość i spada z dużej wysokości″. Podczas rozważań wykorzystuje się pojęcie siły oporu powietrza, której „wartość (dla niezbyt dużych szybkości) rośnie wprost proporcjonalnie do…” Rozważania są prowadzone dość klarownie, choć dociekliwy czytelnik może zapytać, co to właściwie znaczy niewielka gęstość, duża wysokość czy niezbyt duża szybkość.

I rodzi się pytanie: czy szybkość ślimaka była niezbyt duża? A może trochę za duża?
Obraz wygenerowany przez Bing Chat AI

Czy 100 km/h to niezbyt duża szybkość? No właśnie: to zależy czego (czyja) szybkość. W takim razie zależy od kontekstu wypowiedzi. Przyjmując znany nam, typowy, „nieruchomy″ układ odniesienia – Ziemię, szybkość 100 km/h jest dla naszego domowego chomika nieosiągalna, dla naszego samochodu osiągalna, a dla prywatnego odrzutowca (którego jeszcze nie mamy) podczas lotu niedopuszczalnie, niebezpiecznie mała! Czy 100 km/h jest wobec tego niezbyt dużą szybkością? A jeszcze dołóżmy do tego pytanie, czy 100,5 km/h też jest niezbyt dużą szybkością? A 101 km/h ? A 102, … … …? A kiedy nie będzie to już niezbyt duża szybkość?

W powyższym akapicie mamy do czynienia z pojęciem z języka naturalnego, który (najczęściej) rozumiemy. Nie jest to natomiast ścisły język matematyki klasycznej z opiniami tak – tak, nie – nie (a wszystko inne od złego pochodzi). W języku naturalnym ważne jest często, kto pyta, kto odpowiada i o czym się mówi. Matematyka klasyczna odpowie na pytanie, czy 7 jest większe od 5, nie odpowie natomiast na pytanie, czy 7 jest dużo większe od 5. Fizyka potrafi odpowiedzieć na pytanie, czy szybkość ciała to 5 m/s (uwaga pomiar!). Natomiast czy 5 m/s to niezbyt duża szybkość, już jest trudniejszym pytaniem, a odpowiedź zależy od kontekstu i osobistego doświadczenia niezbyt dużych szybkości. Pytanie o niezbyt dużą szybkość można sformułować nieco inaczej: które z szybkości 0, 1, 2, …, 1000 m/s należą do zbioru niezbyt dużych szybkości? Czy 5 m/s należy do tego zbioru? A 10 m/s? A 20 m/s? A gdyby przyjąć, że 20 m/s należy do takiego zbioru, to czy 21 m/s też (jest przecież tylko trochę większe od 20)? Czy szybkość 21 jest już jednak nieniezbyt duża? Jaka zatem będzie odpowiedź na pytanie o wartość niezbyt dużej szybkości? Innymi słowy: jakie elementy będą należały do zbioru niezbyt dużych szybkości?

Tu pojawi się dziwna, nie-matematyczna uwaga: dla każdego oceniającego, dla każdego możliwego kontekstu odpowiedź ta może być inna! I gdzie tu ścisła matematyka? Pojawiła się stosunkowo niedawno (jak na matematykę, którą gdzieś w szkole lub na studiach spotykamy).

W 1965 roku Lotfi A. Zadeh napisał artykuł pod tytułem „Fuzzy sets″, co po polsku zostało przetłumaczone na „zbiory rozmyte″ (kiedyś automatyczny tłumacz tłumaczył na „niedokładne komplety″, ale to się nie przyjęło 😊). Autor opisał w nim definicję niespotykanych dotychczas zbiorów, do których elementy mogą nie tylko należeć albo nie należeć, ale mogą należeć/nie należeć w pewnym stopniu między stopniem 0 (pełnej nieprzynależności) a stopniem 1 (pełnej przynależności). Zadeh podał też podstawowe działania na tak określonych zbiorach i własności tych działań (analogiczne do spotykanych w szkole – sumy, części wspólnej, dopełnienia zbiorów). Dość dziwne, że takie zbiory zostały opisane dopiero w połowie XX wieku. Przypuszczam, że inspiracją była próba komunikacji z komputerem. Człowiek rozumie (jakoś!) zdanie: „jest dziś bardzo ciepło″. A komputer z architekturą zerojedynkową (tak – nie) nie rozumiał. Chyba że nauczył się zasad logiki wielowartościowej i opartej na niej teorii zbiorów rozmytych.

Podstawy logiki wielowartościowej, takiej, w której istnieją „półprawdy″, „ćwierćfałsze″ czy podobne „prawdy w jakimś tam stopniu″, stworzył 100 lat temu Polak Jan Łukasiewicz (to nie ten od lampy naftowej). Od tego czasu możemy powiedzieć: tak – tak, nie – nie, a wszystko inne od Łukasiewicza pochodzi. Zbiory rozmyte w zasadzie też (choć jak napisałem, powstały w 1965 roku).

Ile więc jest trochę mniej niż 2 razy trochę więcej niż 2? Około 4! 😊

Ale co znaczy i jak rozumieć to trochę mniej, trochę więcej i około? Czy i jak zrozumie to komputer (kalkulator)?

Tu już wchodzimy na modelowanie zbiorów rozmytych lub, dokładniej, liczb rozmytych. Jest to trudne i niejednoznaczne. Zaraz, zaraz, zapyta Czytelnik, jeśli niejednoznaczne, to czy mogą być różne wyniki??? Tak. Ale nie bardzo różne. Ciekawe i ważne jest, że zbiory rozmyte (logika rozmyta) mają bardzo nierozmyte zastosowania. Po prostu działają w realu. A jak i gdzie? Jak – to za trudne pytanie na ten artykuł, a gdzie – niech Czytelnik sam spróbuje znaleźć urządzenie (najłatwiej RTV – AGD) z napisem „fuzzy logic″.

Nieco bardziej zainteresowanych zapraszam także do przeczytania nietrudnego, podobnego tekstu z czasopisma Delta. Znacznie bardziej zainteresowanym proponuję czytanie książek na temat zbiorów rozmytych. Po polsku podstawowe są cztery. Najstarsza: Kacprzyk, J. Zbiory rozmyte w analizie systemowej, ISBN 830105497-2. Nowsze: Kacprzyk, J. Wieloetapowe sterowanie rozmyte, ISBN 832042650-2, Piegat, A. Modelowanie i sterowanie rozmyte, ISBN 838767414-1, Łachwa, A. Rozmyty świat zbiorów, liczb, relacji, faktów, reguł i decyzji, EAN 9788387674212. Po angielsku jest tego dużo więcej. W tytule zazwyczaj mają napis „fuzzy sets″ lub „fuzzy logic″.

PS. W wielu miejscach zapisałem kursywą wyrażenia rozmyte. Jest ich trochę? Prawda? Prawda?


Liczby trochę mniejsze od nieskończoności

Nasz pierwszy system liczenia to: jeden, dwa, trzy, dużo. Od tego zaczynamy i taki system wystarcza nam na długi czas (niektórym na zawsze). Chociaż obecnie przyzwyczailiśmy się do pozycyjnych systemów liczenia, a system dziesiętny większości z nas wydaje się naturalny, należy wiedzieć, że system liczenia oparty na cyfrach rzymskich nie jest pozycyjny, a przez to nie nadaje się do bardziej skomplikowanych obliczeń. Wydaje się więc dziwne, że posiadając mnóstwo ograniczeń, niekonsekwencji i niezawierający zera, jest używany także obecnie i ma się całkiem dobrze. Zanim przejdę do tematu głównego, pozwolę sobie poświęcić mu parę akapitów. 

Otrzymaliśmy go w spadku po starożytnych Rzymianach, chociaż to wcale nie oni są jego wynalazcami. Rzymianie zapożyczyli ten system od Etrusków w VI-V w. p.n.e., co nieco tylko modyfikując. Zwiększyli liczbę liter (nie cyfr) z pięciu do siedmiu i używali go powszechnie, aż do upadku Imperium, czyli do V w. n.e. Prawie całe europejskie średniowiecze, to też dominacja systemu rzymskiego.

Rzymski system liczenia jest systemem addytywnym. Oznacza to, że wartość danej liczby oblicza się w oparciu o sumę wartości jej liter. Od tej reguły istnieją wyjątki, dotyczące liczb 4, 9, 40, 90, 400 i 900, gdzie stosuje się regułę odejmowania. Skomplikowane. Jeśli dodać do tego trudność w przedstawianiu dużych liczb i brak reprezentacji liczby 0 (zero), naprawdę trudno zrozumieć, dlaczego taki potworek powstał i jakim cudem tak długo się utrzymał. 

Dopiero system pozycyjny umożliwił reprezentację dowolnie wielkich liczb. Jak dowolnie, to inna sprawa. Systemy liczenia zawsze miały przede wszystkim walor praktyczny, a matematyka była stosowana przede wszystkim w handlu i budownictwie, jako atrybut policzalności. Zakres fizycznej reprezentacji liczb rzadko przekraczał tysiąc. Utylitarne zastosowanie liczenia tłumaczy brak potrzeby używania liczby zero, które oznacza niepoliczalne ‘nic’.

Jak napisałem wcześniej, nowoczesny pozycyjny system liczenia narodził się w Indiach. Cyfry znane jako “arabskie” to w istocie przerobione indyjskie cyfry dewanagari. Wymowa tych cyfr przypomina wymowę współczesną. Spójrzmy: 2 to “dwi”, 3 to “tri”, 6 to “szasz”, 7: “sapta”, 8: “akta”, 9: “nawa”. 

Ryc. 1 Lista cyfr hinduskich i ich nowożytna forma w dewanagari, odpowiednik europejski (arabski) i wymowa w sanskrycie. Źródło: Wikipedia

Matematycy hinduscy wynaleźli też zero (jako liczbę). I chwała im za to, bo pojęcie zera wyciągnęło matematykę z pułapki pragmatyki w stronę matematyki teoretycznej, niekoniecznie mającej pokrycie w liczbie muszelek albo antylop w stadzie. Należy też odróżniać liczbę zero od cyfry zero. Pozycyjny system liczenia niejako wymusza istnienie cyfry “0”, jako reprezentację braku odpowiedniego składnika pozycyjnego liczby składającej się z wielu cyfr. No bo jak zapisać liczbę 300098 w zapisie bez zera? 3   98? Skąd wiadomo, że w takim zapisie są trzy a nie dwie spacje? A więc zero (jako liczba) jest konsekwencją i koniecznością istnienia zera jako cyfry, a to z kolei jest konsekwencją wynalazku pozycyjnego zapisu liczb za pomocą cyfr.

Gwoli ścisłości, system pozycyjny narodził się dużo wcześniej, bo około roku 3200 p.n.e. w Sumerze. Zapis opierał się na liczbie 60, a w miejscu zera było puste miejsce.

Pierwszym teoretykiem pojęcia nieskończoności był Arystoteles ze Stagiry ( 384 p.n.e. – 322 p.n.e.). Według Arystotelesa istnieją różne rodzaje nieskończoności:
1. nieskończoność potencjalna – dla każdej liczbę istnieje liczba większa od niej.
2. nieskończoność aktualna – to na przykład zbiór wszystkich liczb naturalnych, traktowany jako jeden wyraźnie określony obiekt będący końcowym efektem nieskończonego procesu zwiększania liczebności, obiekt, mogący być elementem innego zbioru.
Arystoteles wyróżnił też dwa rodzaje nieskończoności potencjalnej:
1. nieskończoność ze względu na dodawanie, zwiększanie (np. liczb, odcinków),
2. nieskończoność ze względu na podział (na przykład odcinka).
Arystotelesowska nieskończoność potencjalna była przez uczonych akceptowana, nie wzbudzała emocji. Na jej podstawie sformułowano pojęcie granicy ciągu i wiele innych ważnych elementów analizy matematycznej. Jednak nieskończoność aktualna, która prowadziła do paradoksów, była przez uczonych negowana, można powiedzieć, że wypierana ze świadomości. Najbardziej znanym paradoksem związanym z nieskończonością jest paradoks Zenona z Elei (ten o Achillesie i żółwiu). Inną “sprzecznością” była pozorna sprzeczność, że liczebność zbioru liczb naturalnych i liczebność ich kwadratów jest taka sama, a przecież jeden zbiór zawiera się w drugim. Dopiero rozwój matematyki w ostatnich stuleciach uporządkował te kwestie.

Zero to ‘nic’, nieskończoność to najwyższej próby abstrakcja, małe liczby to handel, fizyka, mierniki i inne praktyczne zastosowania. Czy coś jeszcze zostało? Zostały liczby nieposiadające reprezentacji w rzeczywistości i niebędące nieskończonością. Oto tabela nazw dużych liczb i ich reprezentacja dziesiętna:

…..

Ryc. 2. Źródło: Wikipedia

Międzynarodowy Układ Jednostek Miar SI obejmuje niewielką część tego zestawienia (ostatnie dwie kolumny). Cała tabela sprawia wrażenie, że jej autorom (od wykładnika potęgi dziesiętnej większego od 120) “odjechał peron”, bo nie ma pary wielkości fizycznych, których wartości różnią się o czynnik większy niż 10120. Przedrostek Q czyli quetta (1030), nazwany przedrostek największej liczby w układzie SI, został przyjęty oficjalnie dopiero w listopadzie 2022 roku podczas spotkania Generalnej Konferencji Miar i Wag (GCWM). Ciekawostką wartą odnotowania jest, że układ SI obowiązuje na całym świecie oprócz Birmy (Mjanmy), Liberii i Stanów Zjednoczonych, gdzie nadal jest używany system imperialny. Pod tym linkiem, można znaleźć więcej informacji na temat tej konferencji, na której sformalizowano także przedrostki ronna, ronto i quecto .

Nie dość, że duże liczby są trudne do wyobrażenia, to sami sobie skomplikowaliśmy ich nazewnictwo. Wymyśliliśmy dwa systemy ich nazywania, tak zwaną “długą” i “krótką” skalę. Obie skale nie różnią się dla liczb mniejszych niż 109. Dla liczb większych następuje rozjazd. Dla skali krótkiej nazwy liczb większych lub równych 109 są podawane dla kolejnych potęg tysiąca. Dla skali długiej nazwy te są różne dla kolejnych potęg miliona. Jest to źródłem nieustannych pomyłek w przekazie medialnym. Nasz milion to także milion amerykański, ale już nasz miliard to ichniejszy bilion, a na nasz bilion Amerykanie mówią trylion. Komedia pomyłek.

Wydawałoby się, że 103003, czyli millinillion (według długiej skali), albo quingentilliard (według krótkiej skali) to wszystko, co wyobraźnia ludzka może wyprodukować. Przecież to prawie nieskończoność. Nic bardziej mylnego. 

Gdzieś pośrodku przedstawionej powyżej skali znajduje się googol, liczba wymyślona w 1920 r. przez 9-letniego Miltona Sirottę (1911–1981), bratanka amerykańskiego matematyka Edwarda Kasnera. Kasner spopularyzował tę nazwę w książce Matematyka i wyobraźnia z 1940 roku. Googol, którego nazwa wzięła się od nazwiska bohatera komiksu Barney Google i Snuffy Smith autorstwa Billy’ego DeBecka, oznacza 10100.  

Googol ma, trochę na siłę, zastosowanie praktyczne. Masa elektronu, czyli około 10–30 kg, porównana z  masą widzialnego wszechświata, szacowaną pomiędzy 10^50 a 10^60  kg wynosi 1080 – 1090, czyli jedna dziesięciomiliardowa googola (0,00000001% googola).

Jeszcze większą nazwaną dużą liczbą jest googolplex. To 10googol, czyli jedynka, po której następuje googol zer. To też wynalazek Miltona Sirotty, który określił ją jako liczbę  „jeden, po którym należy pisać zera, aż się zmęczysz”. Edward Kassner sformalizował pomysł bratanka jako 10googol. I tak powstała jedna z największych liczb świata.

To rzeczywiście jeszcze nie wszystko. 

Liczba Grahama to liczba, która jest górną granicą rozwiązania problemu z dziedziny matematycznej teorii Ramseya (nieważne, czego ta teoria dotyczy). Liczba Grahama jest tak wielka, że obserwowalny Wszechświat jest za mały, aby pomieścić zwykłą cyfrową reprezentację liczby Grahama, przy założeniu, że każda cyfra zajmuje jedną objętość Plancka, najmniejszą mierzalną przestrzeń. Ale nawet liczba cyfr w cyfrowej reprezentacji liczby Grahama sama w sobie byłaby liczbą tak dużą liczbą, że jej cyfrowej reprezentacji nie można przedstawić w obserwowalnym wszechświecie. I tak wiele razy… 

Jeśli zaintrygowała Cię, szanowny Czytelniku, objętość Plancka, to o najmniejszych jednostkach w świecie fizyki teoretycznej możesz poczytać w artykule Lucasa Bergowsky’ego “Pikseloza” we Wszechświecie. Masa Plancka, równa około 0,02 miligrama jest szczególnie intrygująca. Dlaczego, przecież bakteria waży mniej? Odpowiedzi poszukaj w artykule Lucasa.

Istnieje jeszcze wiele innych wielkich liczb, nazwanych nazwiskami ich odkrywców (a raczej wynalazców): liczba Skewesa, liczba Mosera i wiele innych. 

Do konstrukcji bardzo dużych liczb naturalnych jest używana notacja Steinhausa-Mosera. Została ona wymyślona wspólnie przez wybitnego polskiego matematyka Hugona Steinhausa, profesora Uniwersytetu Jana Kazimierza i Uniwersytetu Wrocławskiego, współtwórcy lwowskiej szkoły matematycznej i Leo Mosera. Jest rozwinięciem notacji Steinhausa. Notacja Steinhausa-Mosera ma postać liczby wpisanej w wielokąt foremny.