Wszyscy znamy się na sztucznej inteligencji, prawda? Umiemy o niej opowiadać okrągłymi zdaniami, wyrażać swoje nadzieje i obawy, dyskutować i argumentować. Używamy specjalistycznych określeń takich jak model językowy (LLM), liczba parametrów, generatywne AI. Ale czy na pewno wiemy, o czym mówimy? Co to znaczy, że na naszych oczach dokonuje się rewolucja AI? Dlaczego obserwujemy przełom w tłumaczeniu tekstów z jednego języka na inny? Pamiętamy przecież jak Google tłumaczył jeszcze dekadę temu. Co się zmieniło?
Większość tekstów prasowych i wpisów w mediach społecznościowych na temat AI pomija zagadnienia techniczne. Traktuje sztuczną inteligencję jako jedyny w swoim rodzaju, niemożliwy do wytłumaczenia i zrozumienia, fenomen. Skąd ta powściągliwość? Przecież w latach pandemii media nie obawiały się pisać o wirusologii, wakcynologii i epidemiologii konkretnie i szczegółowo. Dlaczego więc nie przedstawia się rzetelnej wiedzy o sztucznej inteligencji? Bo to nie jest nauka? Ależ jest! Bo jest za trudne? Wcale nie. Jedynym wytłumaczeniem jest pragnienie utrzymania społecznej percepcji AI jako pojemnego i nośnego medialnie hasła, zarówno przez zwolenników jak i przeciwników tej, powiedzmy to jasno, dziedziny informatyki. Widocznie takie fenomenologiczne podejście większości z nas odpowiada: sztuczna inteligencja jaka jest, każdy widzi. Nie wszystkim jednak odpowiada. Do tych właśnie osób jest adresowana książka Roberta Trypuza „Prosto o AI. Jak działa i myśli sztuczna inteligencja”.
Nie jest to „cegła”, nie jest to podręcznik akademicki ani kompendium, książka liczy raptem 145 stron, można ją przeczytać w jeden wieczór. Tytuł każdego rozdziału (a jest ich osiem, nazywanych przez Autora odcinkami) zaczyna się od pytania „Co to jest…? Jak…? Czy…?”. Już pierwsze pytanie „Co to jest sztuczna inteligencja?” sprowadza nas na ziemię. Okazuje się bowiem, o dziwo, że jest to napisany przez programistów program komputerowy. Niezwykłość tego programu polega na tym, że w odróżnieniu od „normalnych” programów, w których, aby program „działał”, wystarczy zaprojektować algorytmy i zakodować program (podejście rule-based), natomiast w programach sztucznej inteligencji jest to zaledwie początek, szkielet, baza systemu. Stworzony takim sposobem program jest następnie kierowany do następnego, kluczowego etapu swojego „życia”, czyli treningu (a może raczej warunkowania albo tresowania), który jest właściwym programowaniem systemu AI. Następuje zmiana paradygmatu programowania na data-driven, co oznacza, że tracimy możliwość przewidywania ostatecznej, finalnej postaci programu, jego zachowania. Nie umiemy przewidzieć, jak LLM odpowie na konkretny prompt1. Program jest „karmiony” ogromnymi ilościami danych, z których, zużywając ogromne ilości energii, tworzy zbiór zależności i reguł swojego przyszłego działania. I to jest właśnie AI, zbiór zależności, który będzie silnikiem tego, co nazywamy sztuczną inteligencją.
Autor często posługuje się analogiami. Już w tytule pisze, że sztuczna inteligencja „myśli”. Jest to niezbędna parabola pojęciowa, żeby tekst był zrozumiały (przynajmniej do pewnego momentu) dla laika, nieobeznanego z wektorami, macierzami i rekurencją. Nie oznacza to jednakże, że temat jest spłycany. Wprost przeciwnie, wiele mechanizmów jest tłumaczonych „do dna”.
To, co uważam w książce za najważniejsze, to rozprawienie się z mitami narosłymi wokół sztucznej inteligencji. Najważniejszy z nich to ten o uniwersalności AI i jej niemal nadludzkiej możliwości myślenia. AI jaką znamy to tzw. model językowy, czyli program formułujący przekaz językowy, czyli po prostu strumień słów, w sposób łudząco podobny do człowieka. A ponieważ trening tego modelu odbywa się na baaardzo dużej ilości tekstu, nazwano go Wielkim Modelem Językowym, Large Language Model, w skrócie LLM. I tak odszyfrowaliśmy jeden z najbardziej popularnych skrótów. Drugi skrót, znany z nazwy najbardziej znanego LLM to GPT. Ten skrót też traci po rozwinięciu swoją romantyczną otoczkę. GPT to generative pre-trained transformer, czyli wstępnie przeszkolony transformator generatywny. “Wstępnie przeszkolony”, bo wytrenowany na wcześniej podsuniętych mu tekstach, „transformator” to technologia efektywnego przetwarzania tekstów treningowych będąca podstawą współczesnych modeli językowych, a „generatywny” znaczy, że potrafi generować odpowiedzi tekstowe na zadane pytania (prompty). Tak więc definicja, nieco anegdotycznie, mogłaby brzmieć: sztuczna inteligencja to transformator treści o wejściu i wyjściu tekstowym. Jesteście rozczarowani, że to tylko tyle? A czego się spodziewaliście?
Sporo uwagi Autor poświęca też innym niż tekstowe aspektom AI. Chodzi o rozpoznawanie obrazów, Tu też istota sprawy tkwi w treningu modelu na ogromnych ilościach wyselekcjonowanych i właściwie opisanych fotografii i innych obiektów graficznych. Dokładnie tłumaczy praktyczne zastosowania tej techniki w medycynie, szczególnie w dermatologii, radiologii, okulistyce i histopatologii oraz w edukacji.
Ostatni, ósmy rozdział książki jest poświęcony przyszłej roli AI w edukacji. Autor przedstawia przekonującą wizję zmiany aktualnie obowiązującego paradygmatu powszechnej edukacji, tworu skostniałego i niepoddającego się reformom. To jedyna wizja w gronie faktów przedstawionych w książce. Przyznam, bardzo przekonująca.
Dlaczego polecam tę książkę?
Z kilku powodów, a najważniejszym jest podniesienie wiedzy Czytelnika do poziomu pozwalającego na świadomy odbiór zalewających nas skrajnych przekazów na temat sztucznej inteligencji. Po drugie wiedza zawarta w książce pozwoli nam na świadomą interakcję z ChatGPT, zrozumienie jego skłonności do wpadek i (czasami) wypisywania ewidentnych bzdur. Pozwoli zrozumieć, dlaczego ChatGPT tak często fantazjuje i zmyśla zamiast napisać „nie wiem” i dlaczego jeszcze przez długi czas nie będzie wyrocznią mimo, że tak ładnie się wysławia.
Wielu rzeczy w tej książce nie ma. I dobrze, powinna ona po przeczytaniu pozostawić dwa ślady: niedostyt wiedzy i zrozumienie podstaw działania AI, a w szczególności GPT, bo z nim będziemy mieli najczęściej do czynienia.
Co mi się w książce nie podoba?
Drobiazgi: niezbyt czytelne schematy, fatalnej jakości zdjęcia. Chętnie też poczytałbym o innych zastosowaniach niż medyczne i edukacyjne, ale rozumiem, że misją książki jest odpowiedź na pytanie „jak działa?”, a nie „jaka jest przyszłość AI?”.
Czym jestem szczególnie zaskoczony?
Jasnością wywodu, doborem przykładów, umiejętnością wytłumaczenia trudnych i często szczegółowych algorytmów w zrozumiały sposób, bez uciekania się do uproszczeń albo pomijania kluczowych zagadnień. To jest właśnie zaleta pisania książek przez polskich autorów, a nie zawodowych tłumaczy, tłumaczy niebędących specjalistami w danej dziedzinie, którzy często niewiele rozumieją z tego co tłumaczą.
Robert Trypuz „Prosto o AI. Jak działa i myśli sztuczna inteligencja”, Wydawnictwo Helion 2024.
- Warto wyjaśnić znaczenie słowa „prompt” w dialogu z maszyną GPT. Jest to dialog ucznia z mistrzem, a prompty są wypowiedziami ucznia. Mogą być pytaniami: „na czym polega fotosynteza?„, poleceniami: „wymień najpopularniejszych piosenkarzy country w latach 60. XX wieku” albo innymi elementami zwykłego dialogu: „Na pewno się nie mylisz?„. Hierachia ról w dialogu oznacza między innymi to, że to uczeń go inicjuje i ma przez cały czas inicjatywę. GPT pełni rolę służebną i jest pomocnikiem, asystentem merytorycznym ucznia. ↩︎