Historia zera jest dość dobrze znana. Odkąd zaczęto używać zapisu liczb w systemach pozycyjnych, zdawano sobie sprawę z potrzeby zaznaczania luki w zapisie oznaczającej, że dana pozycja jest pusta, czyli odpowiadający jej składnik nie wchodzi w skład sumy równej zapisanej liczbie. Zarówno w starożytnej Mezopotamii, jak i w Grecji matematycy wypracowali sobie odpowiednie sposoby zaznaczania „pozycji do pominięcia”. Także mieszkańcy Ameryki Środkowej, zwłaszcza Majowie, używali od IV w. n.e. specjalnego znaku, „muszelki”, dla oznaczenia pustej pozycji w systemie zapisu liczb, który wynaleźli niezależnie od cywilizacji Azji i Europy. Jednak we wszystkich tych kulturach zero było wypełniaczem, który miał sens tylko w połączeniu z innymi znakami służącymi do zapisania liczby. Nie było traktowane jako samodzielna liczba, której można użyć na przykład jako składnika w dodawaniu albo czynnika w mnożeniu (choć zaczątki takiego traktowania zera można spotkać u Klaudiusza Ptolemeusza w II w. n.e.). Pierwszym znanym nam uczonym, który w oczywisty sposób potraktował zero jako pełnoprawną liczbę, był matematyk i astronom indyjski Brahmagupta, działający w VII w. n.e. Używał on pojęcia liczb ujemnych („długów”) i dodatnich („zysków”) oraz rozdzielającej je liczby neutralnej (zera), wykonując na nich wszystkich działania arytmetyczne, np. (−1) + 1 = 0.
Nowo odkryta liczba otrzymała tę samą nazwę co kropka wypełniająca puste miejsca w indyjskim zapisie pozycyjnym liczb. Było to sanskryckie słowo śūnyám, dosłownie: ‘puste (miejsce)’. Wkrótce potem rozwinął się w Indiach konsekwentny zapis liczb w dziesiętnym systemie pozycyjnym. Kropka wyewoluowała w kółeczko, traktowane jako jedna z dziesięciu cyfr, a zarazem oznaczenie liczby. Z systemem indyjskim szybko zaznajomili się uczeni Bliskiego Wschodu, a zwłaszcza piszący po arabsku matematyk perski Muḥammad ibn Mūsā al-Khwārizmī (także, w transkrypcji polskiej, al-Chuwarizmi), czyli „Chorezmijczyk”.* Spopularyzował on w świecie islamskim system zapisu liczb znany odtąd jako indyjsko-arabski.
Zapoznał się z tym systemem pod koniec XII w. i przyswoił go sobie Leonardo z Pizy, syn włoskiego kupca i urzędnika celnego z rodu Bonaccich, przebywając za młodu wraz z ojcem na placówce handlowej w Bidżai w Algierii, a później podróżując po krajach Wschodu. Dzięki znakomitym i cieszącym się poczytnością dziełom Leonarda (dopiero kilkaset lat później przezwanego Fibonaccim) indyjsko-persko-arabskie wynalazki matematyczne dotarły do średniowiecznej Europy. Arabowie przetłumaczyli sanskrycką nazwę cyfry oznaczanej kółkiem (śūnyám) na swój język jako ṣifr. Z tego źródła wywodzą się aż trzy używane współcześnie słowa międzynarodowe: cyfra, szyfr i zero. To ostatnie nazywało się początkowo w naukowej łacinie zephirum, od którego utworzono włoskie zefiro i w końcu francuskie zero > zéro.
Jeśli myślicie, że Europa rzuciła się z entuzjazmem na nowe odkrycia i przyjęła współczesną interpretację zera jako oczywistość, to się mylicie. Po pierwsze „liczby arabskie” w wersji zeuropeizowanej aż do XV w. używane były niemal wyłącznie we Włoszech (co być może wyjaśnia spektakularne sukcesy renesansowej matematyki, a także bankowości włoskiej). Dopiero w połowie XVI w. zaczęły wypierać z powszechnego użytku rzymski system zapisu liczb, toporny i kłopotliwy w użyciu**, ale za to swojski. Po drugie, niewielu było kontynuatorów śmiałej myśli Brahmagupty, że zero jest liczbą równie dobrą jak każda inna. Zero sprawiało kłopoty. Z filozoficznego punktu widzenia nie było jasne, czy „nic” może być „czymś” (w pełni legalnym obiektem matematycznym). Co gorsza jednak, nie zawsze wiadomo było, jak przeprowadzać działania z jego udziałem.
Już Brahmagupta wiedział, że dla każdej liczby a mamy:
a − a = 0,
a + 0 = a,
a ∙ 0 = 0,
Jasne było także, że
0 + 0 = 0 − 0 = 0 ∙ 0 = 0.
Ale co robić z dzieleniem, którego wynik jest mniej oczywisty intuicyjnie? Brahmagupta założył przez analogię do pozostałych działań, że 0 ∕ 0 = 0. Dla a ≠ 0 dopuszczał z pewnym wahaniem interpretację 0 ∕ a = 0. O tym, jak interpretować wyrażenie a ∕ 0, wypowiadał się niejasno (bo stwierdzenie, że wynikiem jest „ułamek z zerem w mianowniku” to w zasadzie masło maślane). Zasady wykonywania działań z użyciem zera były postulowane na podstawie intuicji, bez szczegółowego dociekania, jakie są ich logiczne konsekwencje. Jeden z następców Brahmagupty, Mahāvīra (IX w.) był zdania, że a ∕ 0 = a. Natomiast wielki matematyk Bhāskara II (XII w.)*** doszedł do wniosku, że wynikiem działania a ∕ 0 jest nieskończoność, a dokładniej – wielkość, która się nie zmienia, jeśli dodamy do niej lub odejmiemy od niej nawet bardzo dużą liczbę.
Wielu matematyków europejskich skłaniało się ku podobnym poglądom. John Wallis (XVII w.), jeden z prekursorów rachunku różniczkowego, wprowadził symbol ∞ dla wielkości nieskończonej (traktowanej przezeń jak quasi-liczba) i uważał, że 1 ∕ 0 = ∞. A ponieważ przy takiej interpretacji mamy:
1 ∕ 3 < 1 ∕ 2 < 1 ∕ 1 < 1 ∕ 0,
Wallis doszedł do wniosku, że wynik działania 1 ∕ (−1), stanowiący kolejne ogniwo w tym łańcuszku dzieleń, powinien być traktowany jako większy od nieskończoności. Z kolei 1 ∕ ∞ dawało wielkość nieskończenia małą, czyli „praktycznie zero”. Najwięksi matematycy XVII–XIX w. (z Eulerem i Gaussem włącznie) interpretowali zero, nieskończoność i wielkości nieskończenie małe („dążące do zera”) intuicyjnie, nie definiując ich w sposób ścisły. W rezultacie albo nie zdawano sobie w pełni sprawy, że wyrażenia „x dąży do zera” i „x = 0” nie są bynajmniej równoważne, albo przeczuwano różnicę, lecz brak było aparatu pojęciowego, żeby to przeczucie sformalizować. Newton próbował uściślić swoje rozumowania dotyczące różniczek, wprowadzając koncepcje przypominające późniejsze definicje granicy i ciągłości, jednak tym próbom daleko było do rygoru formalnego, do jakiego matematycy dopiero mieli przywyknąć. To interesujące, że podczas gdy matematyka rozwijała się w najlepsze i stosowano już pochodne, równania różniczkowe, całki, szeregi potęgowe i funkcje zespolone, wciąż nie było zgody co do tego, jak interpretować proste wyrażenia arytmetyczne zawierające zero. Na przykład tożsamość a⁰ = 1 dla dowolnego a ≠ 0 nie budziła kontrowersji, ale co z legalnością wyrażenia 0⁰?****
Pierwszym matematykiem, który (w roku 1828) nalegał, żeby dzielenie jako operacja formalna spełniało dobrze określone standardy spójności logicznej, był Martin Ohm, brat fizyka Georga Ohma (tego od prawa Ohma). Zacznijmy od tego, że chcemy mieć solidną, logicznie skonstruowaną algebrę, w której działania są tak zdefiniowane, że dla każdej liczby a należącej do interesującej nas klasy (np. liczb wymiernych lub rzeczywistych) a + 0 daje w wyniku a, a iloczyn a ∙ 0 zawsze równa się 0. Wynik każdego działania wykonanego na określonych argumentach powinien także być jednoznacznie określony. Ponadto chcemy, żeby dzielenie było odwrotnością mnożenia, tzn. a ∕ b = x, jeśli x ∙ b = a. Załóżmy, że a ≠ 0, b = 0. Co się dzieje, kiedy próbujemy w tej sytuacji wykonać dzielenie? Wynikiem działania a ∕ 0 jest taka liczba x, że x ∙ 0 = a. Ale wynikiem mnożenia dowolnej liczby przez zero musi być zero, co jest sprzeczne z założeniem, że a ≠ 0. Jak usunąć sprzeczność? Można to zrobić najtańszym kosztem, rezygnując z oczekiwania, że liczba x w ogóle istnieje. Działanie a ∕ 0 nie może dać sensownego wyniku, toteż zakazujemy jego wykonywania.
A co z 0 ∕ 0? Chyba nie stanie się nic złego, jeśli przyjmiemy, że wynikiem jest 0? W końcu „sprawdzenie za pomocą mnożenia” daje wynik poprawny: 0 ∙ 0 = 0. To prawda, ale dla każdej innej liczby x także moglibyśmy przyjąć, że 0 ∕ 0 = x, skoro x ∙ 0 = 0. Innymi słowy, wynik dzielenia zera przez zero nie jest jednoznacznie określony. Podsumowując: w zależności od tego, jaką liczbę chcemy podzielić przez zero, liczba, która spełniałaby definicję wyniku dzielenia, albo nie istnieje, albo może być jakakolwiek. Żeby uniknąć sprzeczności logicznej lub niejednoznaczności wyniku działania, zawsze w przypadku, gdy rozważamy wyrażenie matematyczne typu a ∕ b, mamy obowiązek upewnić się, że b ≠ 0. Jeśli o tym zapomnimy, łatwo np. „udowodnić”, że 2 = 1:
(1) Załóżmy, że a = b = 1. (2) Przy takim założeniu a² − b² = a − b. (3) Ze wzoru na różnicę kwadratów: (a + b) (a − b) = a − b. (4) Dzielimy obie strony równania przez a − b, otrzymując a + b = 1, (5) a zatem 2 = 1.
Rzecz jasna w punkcie (4) dopuściliśmy się prymitywnie zakamuflowanego oszustwa, wykonując dzielenie bez upewnienia się, że a − b ≠ 0. Ponieważ jednak z założenia (1) wynika, że a − b = 0, wykonana operacja jest nielegalna, co unieważnia nasze rozumowanie wraz z końcowym wnioskiem.
Jedno z popularnych sformułowań zakazu (Martina) Ohma brzmi: „Pamiętaj, cholero, nie dziel przez zero!” Po roku 1828 zdarzało się, że ten czy ów matematyk wyrażał aprobatę dla takiej dyscypliny w operowaniu liczbami i dla dbałości o poprawną składnię wyrażeń matematycznych. Jednak zrozumienie, że przyzwoite sformalizowanie podstaw matematyki, w tym definicji powszechnie używanych pojęć, obiektów i operacji, to konieczność, a nie zabawa dla pedantów, przebijało się z oporami. Trzeba było poczekać aż do lat osiemdziesiątych XIX w., żeby zakaz dzielenia przez zero trafił do podręczników matematyki.
Przypisy
*) O jego roli w historii matematyki świadczy fakt, że od przydomka al-Khwārizmī pochodzi słowo algorytm, a od skróconego tytułu jego głównego dzieła, al-Jabr ‘nastawianie’ (przenoszenie na drugą stronę równania) – algebra.
**) Spróbujcie policzyć, nie korzystając z zamiany zapisu rzymskiego na arabski, ile czasu upłynęło między rokiem MCDLXXIII a MMXXIII, czyli jak dawno temu urodził się Kopernik.
***) Autor słynnego traktatu o arytmetyce, zatytułowanego Līlāvatī (na cześć córki Bhāskary, podobno pojętnej uczennicy ojca). Być może Czytelnicy znają książkę pod tym samym tytułem autorstwa Szczepana Jeleńskiego, popularyzatora matematyki (1926, kilkakrotnie wznawiana).
****) Dyskusja o tym, czy wyrażenie 0⁰ jest dobrze zdefiniowane, a jeśli tak, to jaka jest jego wartość, w zasadzie nadal się toczy. Ponieważ w pewnych zastosowaniach (informatyka, statystyka) wygodnie jest przyjąć umownie, że 0⁰ = 1, taką wartość podaje większość kalkulatorów. Trzeba jednak pamiętać, że jest to tylko konwencja, a nie rozstrzygnięcie o mocy dowodu. Zob. https://en.wikipedia.org/wiki/Zero_to_the_power_of_zero.