Liczby nie całkiem urojone – historia w trzech aktach. Akt I: Początki

Pozostałe akty i wpisy na pokrewne tematy

Liczby nie całkiem urojone – historia w trzech aktach. Akt II: Wchodzi Euler
Liczby nie całkiem urojone – historia w trzech aktach. Akt III: Świat zespolony
Patrz też: Nielegalne operacje, czyli wiele hałasu o zero

Cała matematyka jest jednym wielkim eksperymentem myślowym. Kiedy ludzie nauczyli się liczyć, najpierw obracali się w kręgu stosunkowo niewielkich liczb naturalnych, które miały oczywiste zastosowania w życiu codziennym. Następnie zdali sobie sprawę, że system porządkowania i nazywania liczb, który działa w zakresie od 1 do 100 albo do 1000 można dowolnie rozszerzać i że zbiór wszystkich liczb definiowanych w ten sposób nie jest skończony. Z czasem odkryto, że ułamki można traktować podobnie jak liczby całkowite i wykonywać na nich działania arytmetyczne. Matematyka grecka przeżyła kryzys, kiedy się okazało, że istnieją wielkości (jak choćby długość przekątnej kwadratu o boku jednostkowym), których nie da się wyrazić proporcjami liczb całkowitych. Grecy przez kilka stuleci zmagali się z problemem wielkości niewymiernych („niewyrażalnych”, biorąc pod uwagę ograniczenia ówczesnej notacji). Pogodzili się z ich istnieniem, ale traktowali je inaczej niż wielkości „prawdziwe”, czyli odpowiadające ułamkom o liczniku i mianowniku całkowitym. W końcu jednak niewymierność także oswojono.

Na każdym etapie znajdował się ktoś, kto rozumował w następujący sposób: „Wyobraźmy sobie, że L jest nową kategorią liczb, na których spróbujemy wykonywać znane dotychczas operacje. Co z tego wyniknie?” I okazywało się zazwyczaj, że uogólnienie pojęcia liczby upraszcza żmudne operacje i umożliwia rozwiązywanie problemów matematycznych wcześniej niepoddających się analizie. Z czasem odkryto liczby ujemne i zero oraz reguły wykonywania na nich działań. I choć zawsze z początku trzeba się było oswoić z coraz bardziej abstrakcyjnym pojmowaniem „liczby”, po pewnym czasie nikt już nie pytał, czy ułamki, liczby niewymierne lub ujemne, nie wspominając o liczbie zero, są „mniej prawdziwe” niż 1, 2, 3, 4, … Dziś po kursach matematyki na poziomie szkoły średniej nikt raczej nie traktuje √2 albo −3 jako liczb „nie do końca prawdziwych”. Jesteśmy całkowicie oswojeni z interpretacją liczb rzeczywistych w formie „osi liczbowej” i zupełnie nie dziwi nas, że jakaś funkcja może przyjmować wartości ujemne, zerowe lub niewymierne.

A jak jest z liczbami urojonymi i zespolonymi? Choć znane są od kilkuset lat, nadal nie zostały całkowicie oswojone. Opisał je jako pierwszy włoski matematyk Rafael Bombelli w 1572 r. Motywacją była próba zrozumienia tego, co się dzieje w tzw. „przypadku nieprzywiedlnym” wynalezionej w XVI w. metody rozwiązywania równań trzeciego stopnia. W tym przypadku równanie ma trzy rozwiązania (“pierwiastki”) rzeczywiste, ale żeby znaleźć dwa z nich, trzeba wykonać działania, w których występuje pierwiastek kwadratowy z liczby ujemnej. Wiadomo było, że takie pierwiastki kwadratowe nie mogą istnieć, bo każda liczba podniesiona do kwadratu daje wartość nieujemną. Mimo to można było kontunuować wykonywanie obliczeń, udając, że mają one „jakąś tam sobie” fikcyjną wartość (na ten pomysł wpadł wcześniej Gerolamo Cardano). Zawierające je wyrazy we wzorach występują raz z plusem, raz z minusem i po zsumowaniu ulegają redukcji, więc tę fikcyjną wartość można było zignorować. Była potrzebna tylko do wykonania działań, po czym uprzejmie znikała.

Bombelli zauważył, że zamiast traktować trik Cardana jako wybieg formalny, który działa, choć nie bardzo wiadomo dlaczego, można wprowadzić specjalną kategorię liczb – inną niż wszystkie znane uprzednio – o takiej właściwości, że ich kwadrat jest liczbą ujemną. Można je sumować ze zwykłymi liczbami, ale ta suma zawiera dwa wyraźnie odrębne składniki (według dzisiejszej terminologii – część rzeczywistą i część urojoną, pomożoną przez √−1). Bombelli opracował szczegółowe zasady arytmetyki tych liczb, które nazywamy obecnie zespolonymi. Rozumował tak: „Wyobraźmy sobie, że traktujemy √−1 jako prawdziwą liczbę, i sprawdźmy, dokąd nas to zaprowadzi, jeśli będziemy postępować konsekwentnie i zgodnie z logiką”. Był to podobny błysk geniuszu jak te, którym zawdzięczamy traktowanie ułamków jako pełnoprawnych liczb, a nie tylko „proporcji” (Diofantos, II w. n.e.), wprowadzenie kategorii liczb ujemnych i zera jako liczby, a nie tylko pustej pozycji (Brahmagupta, VII w. n.e.) oraz połączenie liczb wymiernych i niewymiernych w uogólnioną, jednolitą kategorię liczb rzeczywistych (średniowieczni matematycy arabscy).

Strona z traktatu Bombellego L’Algebra (wyd. z roku 1579). Na dole strony widnieją reguły mnożenia dodatnich i ujemnych liczb urojonych przez dodatnie i ujemne liczby rzeczywiste oraz urojone. Źródło (licencja CC BY 4.0. Courtesy of The Linda Hall Library of Science, Engineering & Technology).

Liczby zespolone okazały się z czasem nieoczekiwanie przydatne, ale przez kolejne sto lat traktowano je nieufnie. Nieufność dotyczyła oczywiście ich składnika „urojonego”. Nazwę tę (po francusku nombre imaginaire) wprowadził w 1637 r. Kartezjusz. Jej zamierzony wydźwięk był pejoratywny, bo zdaniem Kartezjusza liczby te nie odpowiadały żadnym właściwościom obiektów geometrycznych, dlatego w odróżnieniu od liczb „rzeczywistych” były czymś wydumanym i oderwanym od rzeczywistości. W oryginalnym przykładzie rozważanym przez Kartezjusza równanie trzeciego stopnia x3 − 6x2 + 13x − 10 = 0 ma trzy pierwiastki. Jeden z nich jest liczbą rzeczywistą, a zatem „prawdziwym” rozwiązaniem. Pozostałe dwa zawierają składniki urojone, więc (aczkolwiek można wykonywać na nich legalnie działania arytmetyczne), należą – zdaniem Kartezjusza – do świata wyobraźni, a nie do rzeczywistości. Istotnie, jeśli narysujemy wykres funkcji f(x) = x3 − 6x2 + 13x − 10 w układzie współrzędnych wynalezionym przez Kartezjusza, to przecina on oś X tylko w jednym punkcie, odpowiadającym rozwiązaniu będącemu liczbą rzeczywistą, x1 = 2. Pozostałych dwóch pierwiastków równania nigdzie nie widać. Wniosek? Istnieją one wyłącznie w bujnej fantazji matematyków. Mimo to można dokładnie obliczyć ich wartości zespolone: x2 = 2 + √−1 oraz x3 = 2 − √−1.

Zauważmy, że zarówno suma, jak i iloczyn tych pierwiastków są liczbami rzeczywistymi:

  • x2 + x3 = 2 + 2 + √−1 − √−1 = 4,
  • x2 × x3 = 22 − (√−1)2 = 4 − (−1) = 5.
Wykres kartezjański funkcji wielomianowej o jednym pierwiastku w dziedzinie rzeczywistej i dodatkowych dwóch (niewidocznych tutaj) pierwiastkach w dziedzinie zespolonej.

Innymi słowy, operując na wartościach „nierzeczywistych” możemy otrzymywać wyniki jak najbardziej rzeczywiste (o czym była już wyżej mowa). Nie przekonało to Kartezjusza, choć jedyne, co mógł zarzucić liczbom zespolonym i ich częściom urojonym, to fakt, że układ współrzędnych kartezjańskich (w wersji klasycznej) z góry zawężał uwagę wyłącznie do dziedziny liczb rzeczywistych i nie było sposobu, żeby za jego pomocą reprezentować wartości zespolone. Wyłącznie dlatego pozostawały – nie z własnej przecież winy – niewidoczne. Jednak z formalnego punktu widzenia nic nie stało na przeszkodzie, żeby w równaniach typu a3x3 + a2x2 + a1x + a0 = 0 zmienna x mogła przyjmować wartości zespolone. Algorytm nadal działał bez zarzutu i „wypluwał” trzy pierwiastki równania, niekoniecznie rzeczywiste. Trzeba było tylko rygorystycznie przestrzegać dość oczywistych reguł poprawnego wykonywania operacji na liczbach zespolonych.

W XVIII w. dokonał się następny przełom w zrozumieniu, do czego mogą się przydać liczby zespolone. Jego głównym bohaterem był Leonhard  Euler, który notabene wprowadził używaną do dziś notację. Zastosował mianowicie symbol „jednostki urojonej” i zamiast mniej poręcznego i nie zawsze jednoznacznego wyrażenia √−1. Liczba i pomnożona przez samą siebie daje wynik −1. Ale nie ona jedna ma tę właściwość, bo (o czym wiedział już Bombelli) również (−i)2 = −1. Liczbę zespoloną zapisujemy standardowo jako z = a + bi, gdzie a i b są liczbami rzeczywistymi (nazywanymi odpowiednio częścią rzeczywistą i częścią urojoną liczby z). Jeśli b = 0, to z jest liczbą rzeczywistą. Jeśli a = 0, to z jest liczbą urojoną. Obie te kategorie są szczególnymi przypadkami ogólniejszego pojęcia liczb zespolonych. Liczba 0 jako jedyna należy jednocześnie do liczb rzeczywistych i urojonych. Pierwiastki „nierzeczywiste” równania, o którym wspomniał Kartezjusz, możemy zapisać przejrzyściej jako x2 = 2 + i oraz x3 = 2 − i. Tyle wiedzy na początek wystarczy.

O tym zaś, co konkretnie odkrył Euler, opowie akt II.

System dziesiętny, czyli zamrożony przypadek

Do dziesiętnego systemu liczebników i jego matematycznego odpowiednika, czyli zapisu pozycyjnego liczb przy użyciu dziesięciu cyfr, przyzwyczailiśmy się tak bardzo, że często uważamy go za coś naturalnego i zrozumiałego samo przez się. Zauważmy jednak, że w liczbie 10 nie ma nic szczególnego, co wyróżniałoby ją spośród innych liczb naturalnych jako optymalną podstawę systemu liczbowego. W matematyce nie ma absolutnie żadnego znaczenia, w jakim systemie życzymy sobie zapisywać liczby. Żadne właściwości liczb nie zależą od zapisu. Siedem jest liczbą pierwszą niezależnie od tego, czy zapisane jest w systemie dziesiętnym jako 7, w siódemkowym jako 10, w trójkowym jako 21 czy w dwójkowym jako 111.

Dlaczego zatem wybraliśmy dziesięć jako podstawę? Złożyło się na to kilka przypadków. Jeden jest taki, że podwaliny matematyki, jaką znamy, stworzyli ludzie mówiący językami, w których już istniały dość rozwinięte podstawy systemu dziesiętnego. Były to języki indoeuropejskie, semickie, a także staroegipski. W każdym z nich istniały liczebniki oznaczające liczby 1–10, a liczebniki wyższe wyrażano jako sumy wielokrotności potęg dziesiątki. Czyli np. 263 wyrażano jako ‘dwie setki, sześć dziesiątek i trzy’. We wszystkich trzech grupach języków podstawą do utworzenia liczebnika ‘dwadzieścia’ była liczba podwójna od ‘dziesięć’, a przynajmniej niektóre z liczebników dziesiątkowych 30–90 tworzono jako złożenia liczebników 3–9 z liczebnikiem ‘dziesięć’. Języki indoeuropejskie poszły nawet o krok dalej: słowo *(d)ḱm̥tóm oznaczające ‘sto’ było derywatem utworzonym na podstawie *déḱm̥(t) ‘dziesięć’ i oznaczało dosłownie ‘pochodzące od dziesięciu’.

Oznacza to, że już kilka tysięcy lat temu niektóre ludy żyjące na etapie rozwoju kulturowego klasyfikowanego z grubsza jako neolit lub chalkolit wpadły na pomysł, jak przy użyciu kilku liczebników prostych (podstawowych) zbudować w miarę regularny system nazywania liczb znacznie większych. Zrobiły to, jak się zdaje, niezależnie od siebie, bo podobieństwa dotyczą struktury systemu i nie wiążą się z pokrewieństwem poszczególnych liczebników. Języki semickie i staroegipski są co prawda dalekimi krewnymi w obrębie rodziny afroazjatyckiej, ale używane w nich nazwy liczb ‘dziesięć’, ‘sto’ i ‘tysiąc’ nie są spokrewnione, nie ma więc dowodu, że system dziesiętny istniał już w języku, który był ich wspólnym przodkiem.

System dziesiętny nie wziął się z powietrza. Analiza poszczególnych liczebników „prostych” ujawnia szczegóły, które wskazują na ich genetyczną niejednorodność i ślady różnych warstw chronologicznych. Na przykład część liczebników praindoeuropejskich zachowywała się jak przymiotniki, część miała wyraźne pochodzenie rzeczownikowe, część była nieodmienna lub stała się taka już w prajęzyku. Być może przed wprowadzeniem konsekwentnego liczenia dziesiątkami grupowano liczebniki po cztery (indoeuropejskie ‘osiem’ ma końcówkę liczby podwójnej). Niewątpliwie istniały systemy prekursorskie, w których tylko ograniczony zbiór niewielkich liczb miał ustalone nazwy i nie używano wielokrotności oraz potęg podstawy jako jednostek wyższego rzędu. Nawet kiedy utrwalił się system dziesiątkowy, nie oznaczało to, że można go było dowolnie rozszerzać. Indoeuropejczycy potrafili liczyć setkami, ale indoeuropejskie liczebniki oznaczające ‘tysiąc’ nie są sprowadzalne do jednego wspólnego przodka i powstały raczej po rozpadzie prajęzyka. Staroegipski system liczebników kończył się na milionie, mniej więcej utożsamianym z nieskończonością. Sporo czasu upłynęło, zanim umysły klasy Archimedesa pojęły, że można ten system rozszerzać bez końca i definiować dowolnie wielkie liczby.

Czy to, że trzy niezależnie rozwinięte systemy liczenia opierają się na tej samej dziesiątkowej podstawie, może być przypadkiem? Dlaczego dziesięć, a nie trzy, siedem lub osiemnaście? Na początek warto sprawdzić, jak to wygląda w innych rodzinach językowych. Przede wszystkim wiele języków w ogóle nie posiada reguł umożliwiających tworzenie rozszerzalnego systemu liczebników złożonych. Mają system zamknięty, umożliwiający liczenie tylko do pewnej liczby N, ale niesprowadzający większych liczb do jej wielokrotności. Na przykład stosują konwencjonalne uporządkowanie części ciała, przypisując im kolejne liczby aż do wyczerpania listy. Bywają to liczby dziwne z naszego punktu widzenia, np. 27 (dlatego, że tyle wyróżniono części ciała, a nie dlatego, że 27 = 3³). Ale tu i ówdzie ktoś wpada na pomysł użycia tej liczby jako podstawy do powiększenia systemu. Wspomniałem tu kiedyś o języku huli z Nowej Gwinei, w którym używa się systemu piętnastkowego: 30 jest wyrażane jako ‘podwójna piętnastka’, a 225 jako ‘piętnaście piętnastek’.

Otóż tam, gdzie do takiego rozszerzenia doszło, podstawą jest najczęściej dziesięć, nieco rzadziej dwadzieścia. Zdarzają się systemy, w których liczy się piątkami, czasem czwórkami lub ósemkami, wyjątkowo także szóstkami (gdzie 36 jest wyrażane jako ‘sześć szóstek’) lub dwunastkami. Bywają też systemy hybrydowe z podstawą główną i podstawą pomocniczą, np. piątkowo-dwudziestkowe, dziesiętno-dwudziestkowe (patrz francuskie quatre-vingt-dix ‘90’, dosłownie: cztery dwudziestki i dziesięć) albo dziesiętno-sześćdziesiątkowe (jak system używany w starożytnej Mezopotamii). W każdym razie liczba 10 przewija się szczególnie często.

Raczej nas to nie dziwi, bo natura zaopatrzyła nas w przenośny kalkulator do porównywania liczebności zbiorów – pięć palców u jednej ręki i pięć u drugiej, razem dziesięć; ewentualnie można użyć jeszcze palców u nóg. W niektórych kulturach liczono nie palce, ale przerwy między palcami, co wyjaśnia okazyjne pojawianie się systemów ósemkowych. A zatem mamy kolejny element wyjaśnienia: używamy dziś powszechnie podstawy dziesięć do zapisu pozycyjnego liczb, ponieważ tak się złożyło, że w kilku historycznie ważnych rodzinach językowych wynaleziono tworzenie liczebników złożonych metodą najczęściej spotykaną (a nie na przykład wyrażając je jako wielokrotności ośmiu lub piętnastu, co w zasadzie też mogło było się zdarzyć). Biorąc pod uwagę ludzką skłonność do wykorzystywania części ciała w prymitywnej arytmetyce, a zwłaszcza do liczenia na palcach, dziesięć nie jest co prawda jedyną możliwością, ale należy do najbardziej prawdopodobnych.

Szkielet uchatki Eumetopias jubatus. Łatwo policzyć na palcach, że zachowała ona po pięć palców u każdej kończyny mimo zmian anatomicznych spowodowanych przez konieczność przystosowania się do życia w oceanie. Foto: Oregongirlmary. Źródło: Wikimedia (licencja CC BY-SA 3.0).

No tak, ale dlaczego mamy dziesięć palców? Ponieważ nasze kończyny zachowały dość prymitywną anatomię odziedziczoną po wspólnym przodku wszystkich ssaków, który był pięciopalczasty. Zauważmy, że w wielu liniach ewolucyjnych ssaków liczba palców u przednich, tylnych lub wszystkich nóg uległa redukcji, ale w żadnej z nich nie utrwaliła się liczba większa niż pięć. Przyczyna jest następująca: łatwiej zmniejszyć liczbę podstawowych elementów szkieletu kończyn, niż ją zwiększyć. Zakodowane w genomie czynniki regulujące takie szczegóły jak liczba palców są wielofunkcyjne i jednocześnie odpowiadają za rozwój wielu innych cech organizmu na wczesnym etapie rozwoju embrionalnego.

Redukcja liczby palców z rozwojowego punktu widzenia wygląda tak, że odpowiedni proces zostaje uruchomiony i zawiązek palca zaczyna się formować, a następnie rozwój zostaje zahamowany, a palec ulega zanikowi (nawet konie w rozwoju embrionalnym mają zawiązki pięciu palców, z których pozostaje jeden). Nie zakłóca to działania sieci regulujących ekspresję genów. Natomiast zwiększenie tej liczby wymagałoby zmian w obrębie genów Hox lub elementów regulatorowych powiązanych funkcjonalnie z mnóstwem innych. Dlatego mutacje powodujące hiperdaktylię (nadmiarową liczbę palców) zwykle wywołują także cały zespół wrodzonych nieprawidłowości rozwojowych w narządach z pozoru niemających nic wspólnego z kończynami i palcami. Zmniejszają one przeżywalność i sukces reprodukcyjny nosicieli; dobór naturalny przeciwstawia się zatem ich utrwaleniu w puli genetycznej gatunku. Ewolucji łatwiej jest wyprodukować w razie potrzeby imitację dodatkowego palca (jak fałszywy kciuk pandy wielkiej i pandki rudej lub podobne struktury u kretów i słoni) niż majstrować przy genach odpowiedzialnych za ogólny plan budowy organizmu.

U waleni – ssaków morskich, których przednie kończyny przekształciły się w płetwy, a tylne zanikły – występuje hiperfalangia (zwiększenie liczby paliczków), ale liczba palców nadal nie przekracza pięciu (poza indywidualnymi przypadkami hiperdaktylii nieobejmującej całego gatunku). Wyjątkiem jest morświn kalifornijski (Phocoena vaquita), który ma mały dodatkowy palec wciśnięty między dwa inne. Ponieważ populacja tego gatunku jest bardzo mała, można podejrzewać, że jego sześciopalczastość to skutek mutacji utrwalonej przez przez dryf losowy, a nie efekt przystosowania.

Pięciopalczastość jest też normą u gadów. Podobnie jak u ssaków u wielu gatunków występuje zredukowana liczba palców (albo w ogóle zanik kończyn), ale wśród żyjących gadów brak takich, które miałyby ich więcej niż pięć. Hiperfalangia zdarzała się u wymarłych gadów morskich, a u niektórych ichtiozaurów i ich bliskich krewnych mogła jej towarzyszyć hiperdaktylia (nawet do dziesięciu palców w płetwie i do 20–30 paliczków w palcu), ale polegała ona zwykle na rozszczepianiu paliczków, czyli jakby na rozgałęzianiu się już istniejących palców, a nie na rzeczywistym zwiększaniu ich liczby. Można więc uznać, że gady, podobnie jak ssaki, przez całą swoją historię przestrzegały zasady niepowiększania liczby palców ponad pięć.

Pięć palców u każdej kończyny miał ostatni wspólny przodek gadów (włącznie z ptakami) i ssaków, czyli protoplasta wszystkich owodniowców (Amniota), żyjący prawdopodobnie ok. 315 mln lat temu. Jeszcze wcześniej, może ok. 340 mln lat temu, żył ostatni wspólny przodek owodniowców i płazów. Pytanie, ile miał palców, nie jest takie proste. Być może także cztery razy po pięć, bo współczesne płazy mają maksymalnie po 5 palców u tylnych nóg i 4 u przednich. Ale embrionalny rozwój kończyn u płazów przebiega nieco inaczej niż u owodniowców, a żaby mogą mieć w tylnych stopach dodatkowe elementy kostne uważane przez część badaczy za prawdziwe, choć szczątkowe „szóste palce”. Dopóki żaboznawcy i paleontolodzy nie wyjaśnią tego do końca, trzeba się liczyć z możliwością, że dogmat o pięciopalczastości ostatniego wspólnego przodka współczesnych czworonogów (Tetrapoda) wymaga rewizji. Pewne jest w każdym razie, że jego poprzednicy, którzy wyszli na ląd w dewonie, miewali więcej niż pięć palców. Acanthostega miała ich po osiem u kończyn przednich, a Ichthyostega po siedem u tylnych (więcej trudno orzec, bo szkielety są niekompletne). Tulerpeton był sześciopalczasty. Wydaje się, że na początku karbonu ustabilizowała się pięciopalczastość, a w każdym razie dotyczy to linii rodowej owodniowców.

Nie ma dowodów, że pięć ma tu jakieś szczególne znaczenie jako optymalna liczba palców. Liczne owodniowce zredukowały liczbę palców do czterech, trzech, dwóch lub jednego, a nawet do zera (te, które całkiem utraciły kończyny). Powód, dla którego liczba palców owodniowców nie przekracza pięciu, jest prozaiczny: redukcja ich liczby u najwcześniejszych czworonogów była jak mechanizm z zapadką. Łatwiej było tę liczbę zmniejszyć, niż powiększyć, ale z drugiej strony palce spełniały różne pożyteczne funkcje, więc od jakiegoś momentu tempo redukcji zmalało i dalsze zmniejszanie liczby palców musiało być jakoś uzasadnione szczególnymi korzyściami adaptacyjnymi. Być może czasem lepiej byłoby mieć więcej niż pięć palców, ale co raz utracili przodkowie, trudno przywrócić. Większość linii rozwojowych po prostu utrzymała liczbę palców odziedziczoną po wspólnym przodku. Podczas radiacji przystosowawczych w ciągu ostatnich 66 mln lat ssaki nieraz eksperymentowały z możliwością zmniejszenia liczby palców (zwłaszcza szybko biegające kopytne, ale do pewnego stopnia także drapieżne, gryzonie skoczkowate czy leniwce), jednak uganiający się po drzewach przedstawiciele naczelnych nie mieli żadnego powodu, żeby się wyrzec części ewolucyjnego spadku, który pomagał im mocno się trzymać gałęzi.

Reasumując: używamy systemu dziesiętnego, bo przodek wszystkich owodniowców 315 mln lat temu (lub jeszcze dawniej) miał po pięć palców u każdej z przednich łap. Przodkowie ssaków zachowali ten stan posiadania, podobnie jak naczelne. Kiedy Homo sapiens nauczył się liczyć, palce zaczęły pełnić dodatkową funkcję jako pomoc rachunkowa. Dzięki temu, kiedy pojawiły się rozbudowane systemy liczebników, dziesiętny schemat etykietowania liczb naturalnych od początku był faworyzowany przez ewolucję kulturalną. Zbiegiem okoliczności, który nie był co prawda nieunikniony, lecz był z góry prawdopodobny, ludzie, którzy stworzyli sformalizowaną arytmetykę, mieli już uwarunkowaną językowo skłonność do myślenia o liczbach w kategoriach dziesiętnych.

Gdyby przodek owodniowców zachował był liczbę palców akantostegi (2 × 8) w kończynach przednich, a jego potomkowie utrzymali tę liczbę „zamrożoną” przypadkiem przez ewolucję, być może posługiwalibyśmy się systemem ósemkowym lub szesnastkowym. Liczba π nie byłaby wtedy zapisywana jako  dziesiętne 3.14159265358979323846…, tylko jako ósemkowe 3,11037552421026430215… lub szesnastkowe 3,243F6A8885A308D31319… (gdzie symbole od A do F mają wartość liczbową od dziesięciu do piętnastu). Oczywiście nic by to nie zmieniło w jej właściwościach, bo zapis to tylko zapis.

Nielegalne operacje, czyli wiele hałasu o zero

Historia zera jest dość dobrze znana. Odkąd zaczęto używać zapisu liczb w systemach pozycyjnych, zdawano sobie sprawę z potrzeby zaznaczania luki w zapisie oznaczającej, że dana pozycja jest pusta, czyli odpowiadający jej składnik nie wchodzi w skład sumy równej zapisanej liczbie. Zarówno w starożytnej Mezopotamii, jak i w Grecji matematycy wypracowali sobie odpowiednie sposoby zaznaczania „pozycji do pominięcia”. Także mieszkańcy Ameryki Środkowej, zwłaszcza Majowie, używali od IV w. n.e. specjalnego znaku, „muszelki”, dla oznaczenia pustej pozycji w systemie zapisu liczb, który wynaleźli niezależnie od cywilizacji Azji i Europy. Jednak we wszystkich tych kulturach zero było wypełniaczem, który miał sens tylko w połączeniu z innymi znakami służącymi do zapisania liczby. Nie było traktowane jako samodzielna liczba, której można użyć  na przykład jako składnika w dodawaniu albo czynnika w mnożeniu (choć zaczątki takiego traktowania zera można spotkać u Klaudiusza Ptolemeusza w II w. n.e.). Pierwszym znanym nam uczonym, który w oczywisty sposób potraktował zero jako pełnoprawną liczbę, był matematyk i astronom indyjski Brahmagupta, działający w VII w. n.e. Używał on pojęcia liczb ujemnych („długów”) i dodatnich („zysków”) oraz rozdzielającej je liczby neutralnej (zera), wykonując na nich wszystkich działania arytmetyczne, np. (−1) + 1 = 0.

Nowo odkryta liczba otrzymała tę samą nazwę co kropka wypełniająca puste miejsca w indyjskim zapisie pozycyjnym liczb. Było to sanskryckie słowo śūnyám, dosłownie: ‘puste (miejsce)’. Wkrótce potem rozwinął się w Indiach konsekwentny zapis liczb w dziesiętnym systemie pozycyjnym. Kropka wyewoluowała w kółeczko, traktowane jako jedna z dziesięciu cyfr, a zarazem oznaczenie liczby. Z systemem indyjskim szybko zaznajomili się uczeni Bliskiego Wschodu, a zwłaszcza piszący po arabsku matematyk perski Muḥammad ibn Mūsā al-Khwārizmī (także, w transkrypcji polskiej, al-Chuwarizmi), czyli „Chorezmijczyk”.* Spopularyzował on w świecie islamskim system zapisu liczb znany odtąd jako indyjsko-arabski.

Zapoznał się z tym systemem pod koniec XII w. i przyswoił go sobie Leonardo z Pizy, syn włoskiego kupca i urzędnika celnego z rodu Bonaccich, przebywając za młodu wraz z ojcem na placówce handlowej w Bidżai w Algierii, a później podróżując po krajach Wschodu. Dzięki znakomitym i cieszącym się poczytnością dziełom Leonarda (dopiero kilkaset lat później przezwanego Fibonaccim) indyjsko-persko-arabskie wynalazki matematyczne dotarły do średniowiecznej Europy. Arabowie przetłumaczyli sanskrycką nazwę cyfry oznaczanej kółkiem (śūnyám) na swój język jako ṣifr. Z tego źródła wywodzą się aż trzy używane współcześnie słowa międzynarodowe: cyfra, szyfr i zero. To ostatnie nazywało się początkowo w naukowej łacinie zephirum, od którego utworzono włoskie zefiro i w końcu francuskie zero > zéro.

Jeśli myślicie, że Europa rzuciła się z entuzjazmem na nowe odkrycia i przyjęła współczesną interpretację zera jako oczywistość, to się mylicie. Po pierwsze „liczby arabskie” w wersji zeuropeizowanej aż do XV w. używane były niemal wyłącznie we Włoszech (co być może wyjaśnia spektakularne sukcesy renesansowej matematyki, a także bankowości włoskiej). Dopiero w połowie XVI w. zaczęły wypierać z powszechnego użytku rzymski system zapisu liczb, toporny i kłopotliwy w użyciu**, ale za to swojski. Po drugie, niewielu było kontynuatorów śmiałej myśli Brahmagupty, że zero jest liczbą równie dobrą jak każda inna. Zero sprawiało kłopoty. Z filozoficznego punktu widzenia nie było jasne, czy „nic” może być „czymś” (w pełni legalnym obiektem matematycznym). Co gorsza jednak, nie zawsze wiadomo było, jak przeprowadzać działania z jego udziałem.

Już Brahmagupta wiedział, że dla każdej liczby a mamy:

aa = 0,
a + 0 = a,
a 0 = 0,

Jasne było także, że

0 + 0 = 0 − 0 = 0 ∙ 0 = 0.

Ale co robić z dzieleniem, którego wynik jest mniej oczywisty intuicyjnie? Brahmagupta założył przez analogię do pozostałych działań, że 0 ∕ 0 = 0. Dla a ≠ 0 dopuszczał z pewnym wahaniem interpretację 0 ∕ a = 0. O tym, jak interpretować wyrażenie a ∕ 0, wypowiadał się niejasno (bo stwierdzenie, że wynikiem jest „ułamek z zerem w mianowniku” to w zasadzie masło maślane). Zasady wykonywania działań z użyciem zera były postulowane na podstawie intuicji, bez szczegółowego dociekania, jakie są ich logiczne konsekwencje. Jeden z następców Brahmagupty, Mahāvīra (IX w.) był zdania, że a ∕ 0 = a. Natomiast wielki matematyk Bhāskara II (XII w.)*** doszedł do wniosku, że wynikiem działania a ∕ 0 jest nieskończoność, a dokładniej – wielkość, która się nie zmienia, jeśli dodamy do niej lub odejmiemy od niej nawet bardzo dużą liczbę.

Wielu matematyków europejskich skłaniało się ku podobnym poglądom. John Wallis (XVII w.), jeden z prekursorów rachunku różniczkowego, wprowadził symbol ∞ dla wielkości nieskończonej (traktowanej przezeń jak quasi-liczba) i uważał, że 1 ∕ 0 = ∞. A ponieważ przy takiej interpretacji mamy:

1 ∕ 3 < 1 ∕ 2 < 1 ∕ 1 < 1 ∕ 0,

Wallis doszedł do wniosku, że wynik działania 1 ∕ (−1), stanowiący kolejne ogniwo w tym łańcuszku dzieleń, powinien być traktowany jako większy od nieskończoności. Z kolei 1 ∕ ∞ dawało wielkość nieskończenia małą, czyli „praktycznie zero”. Najwięksi matematycy XVII–XIX w. (z Eulerem i Gaussem włącznie) interpretowali zero, nieskończoność i wielkości nieskończenie małe („dążące do zera”) intuicyjnie, nie definiując ich w sposób ścisły. W rezultacie albo nie zdawano sobie w pełni sprawy, że wyrażenia „x dąży do zera” i „x = 0” nie są bynajmniej równoważne, albo przeczuwano różnicę, lecz brak było aparatu pojęciowego, żeby to przeczucie sformalizować. Newton próbował uściślić swoje rozumowania dotyczące różniczek, wprowadzając koncepcje przypominające późniejsze definicje granicy i ciągłości, jednak tym próbom daleko było do rygoru formalnego, do jakiego matematycy dopiero mieli przywyknąć. To interesujące, że podczas gdy matematyka rozwijała się w najlepsze i stosowano już pochodne, równania różniczkowe, całki, szeregi potęgowe i funkcje zespolone, wciąż nie było zgody co do tego, jak interpretować proste wyrażenia arytmetyczne zawierające zero. Na przykład tożsamość a⁰ = 1 dla dowolnego a ≠ 0 nie budziła kontrowersji, ale co z legalnością wyrażenia 0⁰?****

Kalkulator Windows podaje wynik działań: 0⁰, 0 ∕ 0, 1 ∕ 0.

Pierwszym matematykiem, który (w roku 1828) nalegał, żeby dzielenie jako operacja formalna spełniało dobrze określone standardy spójności logicznej, był Martin Ohm, brat fizyka Georga Ohma (tego od prawa Ohma). Zacznijmy od tego, że chcemy mieć solidną, logicznie skonstruowaną algebrę, w której działania są tak zdefiniowane, że dla każdej liczby a należącej do interesującej nas klasy (np. liczb wymiernych lub rzeczywistych) a + 0 daje w wyniku a, a iloczyn a ∙ 0 zawsze równa się 0. Wynik każdego działania wykonanego na określonych argumentach powinien także być jednoznacznie określony. Ponadto chcemy, żeby dzielenie było odwrotnością mnożenia, tzn. ab = x, jeśli xb = a. Załóżmy, że a ≠ 0, b = 0. Co się dzieje, kiedy próbujemy w tej sytuacji wykonać dzielenie? Wynikiem działania a ∕ 0 jest taka liczba x, że x ∙ 0 = a. Ale wynikiem mnożenia dowolnej liczby przez zero musi być zero, co jest sprzeczne z założeniem, że a ≠ 0. Jak usunąć sprzeczność? Można to zrobić najtańszym kosztem, rezygnując z oczekiwania, że liczba x w ogóle istnieje. Działanie a ∕ 0 nie może dać sensownego wyniku, toteż zakazujemy jego wykonywania.

A co z 0 ∕ 0? Chyba nie stanie się nic złego, jeśli przyjmiemy, że wynikiem jest 0? W końcu „sprawdzenie za pomocą mnożenia” daje wynik poprawny: 0 ∙ 0 = 0. To prawda, ale dla każdej innej liczby x także moglibyśmy przyjąć, że 0 ∕ 0 = x, skoro x ∙ 0 = 0. Innymi słowy, wynik dzielenia zera przez zero nie jest jednoznacznie określony. Podsumowując: w zależności od tego, jaką liczbę chcemy podzielić przez zero, liczba, która spełniałaby definicję wyniku dzielenia, albo nie istnieje, albo może być jakakolwiek. Żeby uniknąć sprzeczności logicznej lub niejednoznaczności wyniku działania, zawsze w przypadku, gdy rozważamy wyrażenie matematyczne typu ab, mamy obowiązek upewnić się, że b ≠ 0. Jeśli o tym zapomnimy, łatwo np. „udowodnić”, że 2 = 1:

(1) Załóżmy, że a = b = 1.
(2) Przy takim założeniu a² − b² = ab.
(3) Ze wzoru na różnicę kwadratów: (a + b) (ab) = ab.
(4) Dzielimy obie strony równania przez ab, otrzymując a + b = 1,
(5) a zatem 2 = 1.

Rzecz jasna w punkcie (4) dopuściliśmy się prymitywnie zakamuflowanego oszustwa, wykonując dzielenie bez upewnienia się, że ab ≠ 0. Ponieważ jednak z założenia (1) wynika, że ab = 0, wykonana operacja jest nielegalna, co unieważnia nasze rozumowanie wraz z końcowym wnioskiem.

Jedno z popularnych sformułowań zakazu (Martina) Ohma brzmi: „Pamiętaj, cholero, nie dziel przez zero!” Po roku 1828 zdarzało się, że ten czy ów matematyk wyrażał aprobatę dla takiej dyscypliny w operowaniu liczbami i dla dbałości o poprawną składnię wyrażeń matematycznych. Jednak zrozumienie, że przyzwoite sformalizowanie podstaw matematyki, w tym definicji powszechnie używanych pojęć, obiektów i operacji, to konieczność, a nie zabawa dla pedantów, przebijało się z oporami. Trzeba było poczekać aż do lat osiemdziesiątych XIX w., żeby zakaz dzielenia przez zero trafił do podręczników matematyki.

Przypisy

*) O jego roli w historii matematyki świadczy fakt, że od przydomka al-Khwārizmī pochodzi słowo algorytm, a od skróconego tytułu jego głównego dzieła, al-Jabr ‘nastawianie’ (przenoszenie na drugą stronę równania) – algebra.

**) Spróbujcie policzyć, nie korzystając z zamiany zapisu rzymskiego na arabski, ile czasu upłynęło między rokiem MCDLXXIII a MMXXIII, czyli jak dawno temu urodził się Kopernik.

***) Autor słynnego traktatu o arytmetyce, zatytułowanego Līlāvatī (na cześć córki Bhāskary, podobno pojętnej uczennicy ojca). Być może Czytelnicy znają książkę pod tym samym tytułem autorstwa Szczepana Jeleńskiego, popularyzatora matematyki (1926, kilkakrotnie wznawiana).

****) Dyskusja o tym, czy wyrażenie 0⁰ jest dobrze zdefiniowane, a jeśli tak, to jaka jest jego wartość, w zasadzie nadal się toczy. Ponieważ w pewnych zastosowaniach (informatyka, statystyka) wygodnie jest przyjąć umownie, że 0⁰ = 1, taką wartość podaje większość kalkulatorów. Trzeba jednak pamiętać, że jest to tylko konwencja, a nie rozstrzygnięcie o mocy dowodu. Zob. https://en.wikipedia.org/wiki/Zero_to_the_power_of_zero.