
Alfred Nobel ustanawiając nagrodę swojego imienia nie przypuszczał zapewne, że stanie się ona największym wyróżnieniem naukowym wszech czasów. Dlatego pewnie nie zastanawiał się zbyt długo nad wymyślaniem kategorii, w których wyróżnienia będą nadawane. Kategorie, w których nagroda Nobla nie jest przyznawana szybko zostały zapełnione przez inne wyróżnienia, wszak natura nie znosi próżni, a wszyscy (albo prawie wszyscy) naukowcy są próżni i pragną czymś zastąpić swoją mizerię finansową, nieadekwatną do możliwości intelektualnych. To zrozumiałe. Nobel wyróżnił fizykę i chemię, dziedziny, w których na przełomie XIX i XX wieku działo się bardzo wiele, a perspektywy rozwoju były oszałamiające. Dodanie „fizjologii lub medycyny”, dopełniającej nauki ścisłe oraz literatury i nagrody pokojowej ustaliło status quo na prawie 70 lat. W roku 1968 uzupełniono ten zestaw o nagrodę z ekonomii, co było pierwszą i ostatnią reformą tego systemu. Nic dziwnego, monarchia (nagrodę wręcza król Szwecji potwierdzając tym samym jej rangę swoim królewskim majestatem) nie znosi rewolucji, jest wszakże nieomylna.
Tak więc matematycy mają swój medal Fieldsa, astronomów wciśnięto do fizyki, biologów do „medycyny lub fizjologii”, muzycy żyją muzyką i, jak wiadomo, nie potrzebują nagród. Z woli Alfreda Nobla wytwory techniki, czyli wynalazki, nie są honorowane, a filozofowie niech sobie w spokoju filozofują bez nagród. Wydaje się więc, że powstał stan ustalony satysfakcjonujący wszystkich zwłaszcza, że honor i prestiż Nagrody nie zmalał. Wręcz przeciwnie, jest coraz szerzej komentowana i kontestowana, a nawet obrasta „klonami” w rodzaju ig Nobla. To dobrze, niech rośnie noblowski ekosystem, z niewątpliwą korzyścią dla Nauki.
Tylko jedna rzecz niepokoi. Jedna dziedzina nie znalazła nawet szczątkowego zainteresowania Komitetu Noblowskiego. Zapytacie, która? Ta, której nie wymieniłem we wstępie. Nauka o informacji, informatyka. Informatycy (nie ci w potocznym znaczeniu tego słowa, tylko Informatycy) nie mają swojego Nobla. Może dlatego, że za dużo zarabiają? A może dlatego, że informatyczne przełomy są właściwie wynalazkami, a priori wykluczonymi z nagrody Nobla. Trochę jest w tym racji, komputery w przyrodzie nie występują, nie trzeba ich odkrywać. Genialny pomysł architektury maszyny liczącej Johna von Neumanna z 1945 roku jest do dziś wykorzystywany praktycznie bez zmian. Zmieniały się technologie, przeżywaliśmy kolejne rewolucje komputerowe, ale idea pozostała ta sama.
Dotychczas schemat przetwarzania informacji przez komputery był prosty. Mieliśmy nieskończenie skomplikowany świat rzeczywisty, który poznawaliśmy tworząc mniej lub bardziej udane jego modele. Tak, jak fotografia jest obrazem rzeczywistości i mimo pikselizacji i niezbyt wiernego odwzorowania kolorów daje pewien pogląd na świat fizyczny. Fotografia nie tworzy informacji, klasyczny komputer też nie wymyśli tego, czego nie wymyśliłaby tęga głowa. Swoją pracę zrobi szybciej, dokładniej niż człowiek, ale nowej jakości nie stworzy, „prochu nie wymyśli”. Można powiedzieć, że jest pod całkowitą kontrolą człowieka, jego praca może być przez nas analizowana, a działanie w pełni sterowane. Nie obawiamy się, że komputer wymyśli coś, czego nie potrafilibyśmy zrozumieć i zaakceptować (albo i nie zaakceptować).
Do czasu.
Tegoroczna nagroda Nobla została przyznana za przełomowe badania w dziedzinie tak zwanej „sztucznej inteligencji”. Tak zwanej, bo nazwa została ukuta przez Johna McCarthy’ego w 1956 roku, powiedzmy, że nieco na wyrost. Istnieje obawa, niektórzy mówią, że nadzieja, że nareszcie rzeczywistość sztucznej inteligencji zasłuży na to miano. Wszystko za sprawą głębokiego uczenia (deep learning). Jeden z tegorocznych noblistów z dziedziny fizyki Geoffrey E. Hinton, informatyk i psycholog (!), jest pionierem wykorzystania sieci neuronowych do tworzenia bytów informatycznych zdolnych do „samodzielnego myślenia”, wyciągania wniosków, stopniowej adaptacji do nieznanych wcześniej warunków. Aby zilustrować możliwości głębokiego uczenia maszynowego można wyobrazić robota wyposażonego w AI (sztuczną inteligencję) wypuszczonego prosto z fabryki na powierzchnię Księżyca. Robot nie umie chodzić, upadać, wstawać, ma jedynie możliwości fizyczne w postaci siłowników, manipulatorów i zasobu energii. Może on, metodą prób i błędów, doskonalić się upadając i wstając. Za każdym razem będzie się uczył, wyciągał wnioski, będzie stawał się coraz bardziej doskonały w przetrwaniu w nieznanym otoczeniu. Bez pomocy człowieka, bez łączności z mityczną „centralą”, bez podprogramów, bez instrukcji postępowania będzie w stanie zaadaptować się do nowych warunków.
To tylko mały przykład, ilustracja możliwości AI. Wyobraźnia podpowiada różne możliwości rozwoju sytuacji. Przecież tak pracująca AI, ucząca się poprzez deep learning, będzie musiała wytworzyć własny system wartości. Będzie musiała podejmować decyzje niekoniecznie będące wyborem między 100% dobrem i 100% złem. Niektóre decyzje będą wyborem mniejszego zła, jak w teorii gier, gdzie najważniejsza jest suma końcowa, wynik decydujący o wygranej lub przegranej. Już teraz poligonem doświadczalnym AI są autonomiczne samochody, które wchodząc w interakcje ze światem zewnętrznym są zmuszone podejmować decyzje nie przez wszystkich akceptowalne. Jakiś przykład? Proszę bardzo. Przed samochodem znienacka przebiega zwierzę. Nie kotek albo jeżyk, tylko na przykład jeleń. Warunki fizyczne (prędkość, nawierzchnia) nie pozwalają bezpiecznie zatrzymać się PRZED zwierzęciem, a czasu jest mało (nieważne, komputery są diabelnie szybkie). Co robić? Uderzyć? Gwałtownie skręcić zbaczając z drogi o znanych parametrach nawierzchni na śliskie pobocze? Przecież mam pasażerów, których zdrowie jest wysoko w hierarchii wartości. Trzeba liczyć prawdopodobieństwo (-a) i wybrać mniejsze zło. Ale dla kogo mniejsze? Dla zdrowia czy dla portfela? A może AI ma już ukształtowany system wartości, w którym najważniejsze jest bezpieczeństwo swojej elektroniki?
Przykładem udanej realizacji deep learning jest AlphaGo, program grający w go na poziomie arcy-arcymistrzowskim. Proces uczenia AlphaGo był dwuetapowy. Pierwszy, uczenie nadzorowane, to analiza dużej bazy danych partii tej gry rozegranych przez zawodowych graczy. Uczenie polegało na przewidywaniu przez program właściwych ruchów oraz konfrontowaniu ich z ruchami przeciwników z rozegranych partii. Ten etap pozwolił na wykształcenie odpowiednich reakcji na ruch przeciwnika w kontekście aktualnej sytuacji na planszy. Drugi etap, uczenie przez wzmocnienie, polegał na rozegraniu milionów partii z samym sobą i służył do doskonaleniu strategii. Trzeci etap-nie-etap to dalsze doskonalenie strategii. Nie muszę chyba dodawać, że AlphaGo pokonał mistrzów świata, w tym Lee Sedola (2016), ani że go jest grą wielokrotnie bardziej złożoną niż szachy.
Dla porządku dodam, że drugim nagrodzonym noblistą w dziedzinie fizyki jest John Joseph Hopfield, rasowy fizyk o polskich korzeniach, o czym spieszę donieść jako miłośnik poloników w nauce. Ojciec Hopfielda, też John Joseph, także był fizykiem, urodził się w Płocku jako Jan Józef Chmielewski.
Czy informatyka to fizyka? Fizyką jest „mechanizm działania” elektroniki tworzącej komputer, sama jednak informatyka kojarzy mi się raczej z logiką matematyczną, czyli z matematyką.
I druga kwestia – Wydaje mi się, że różnica między tak zwaną sztuczną inteligencją (nie wiem czy jedyna, czy jedna z wielu, ale ta mi się od razu narzuca), to nieumiejętność samodzielnego postawienia sobie zadania. Ten robot na Księżycu nie uczył by się chodzić, gdyby wcześniej człowiek (jego twórca, producent, posiadacz) nie postawił mu zadania – masz chodzić, albo – masz wykonać to czy tamto, do czego potrzebna jest umiejętność chodzenia. I bardzo bym się obawiał takiej „sztucznej” inteligencji, która by sobie sama wyznaczała zadanie, jakie jej się spodoba, bo obawiam się, że mogło by mi się to jej zadanie bardzo nie spodobać.
W tym właśnie problem, że zadania stawiane sztucznej inteligencji są odległe, a czasem bardzo odległe od warunków początkowych. Zadanie „dodaj dwa do trzech i pokaż wynik” albo „dobierz składniki mieszanki tak, aby jej wytrzymałość była większa od X a koszt mieścił się w granicach Y-Z” różnią się jakościowo od „wybierz lokalizację dla elektrowni atomowej tak, aby była opłacalna i minimalizowała negatywne skutki dla otoczenia”. To drugie zadanie wymaga podejmowania decyzji nieoczywistych, w warunkach, z którymi jeszcze nie mieliśmy do czynienia. Jeśli zadanie zostanie sformułowane nieściśle i ogólnikowo, wtedy nie wiemy, jakie decyzje podejmie AI. System wartości AI, pomimo stosowania trzech praw robotyki Asimova może pójść w nieznane i wykreować psychopatę (w naszym pojęciu).
A co jeśli Człowiek postawi zadanie „Masz przetrwać za wszelką cenę.”?
„komputery w przyrodzie nie występują”? A czym jest mózg (w dużej mierze)? Nagrodę przyznano za *sztuczne* sieci neuronowe, gdy tymczasem w przyrodzie mamy te prawdziwe (podobnie zresztą jak ze sztuczną inteligencją) 🙂
Komputery w znaczeniu maszyny von Neumanna w przyrodzie nie występują. Definicja komputera jako programowalnej maszyny do wykonywania określonych zadań nie obejmuje mózgu, który nie jest z góry zaprogramowany, on sam siebie programuje. Można oczywiście szukać analogii mózgu z procesorem zintegrowanym z pamięcią, wzroku i słuchu z urządzeniami peryferyjnymi ale brakuje PROGRAMU. Podobny poroblem występuje ze sztuczną inteligencją, która znając garść ogólnych reguł potrafi, poprzez interakcję z otoczeniem, dostosować się do niego TWORZĄC program. Tak jak opisany wyżej AlphaGo.
W dobie generative AI, gdzie tuż za progiem jest sztuczna inteligencja, która będzie tworzyć rzeczy wg własnego „widzimisię” – a będzie to na komputerach, jak mniemam – uważam że nie ma aż takiej różnicy między mózgiem a komputerem. Sztuczna inteligencja pisząca sama sobie programy to kwestia bliskiej przyszłości moim zdaniem.
To nie nagroda z fizyki a z informatyki. A informatyka to biznes a biznes to pieniądze. Człowiek poznaje swoje miejsce we Wszechświecie dzięki fizyce teoretycznej. Informatyka(programowanie, uczenie maszynowe, sieci neuronowe, itd.) to jedynie nauka pomocnicza matematyki i wszystkich nauk przyrodniczych, w tym fizyki. Bez fizyków teoretyków i matematyków ten świat staje się coraz głupszy. Po prostu. Powtarzam-informatyka to tylko narzędzie i nie byłoby jej gdyby nie -chociażby- algebra abstrakcyjna. A programiści i inni informatycy boją się algebry liniowej. Żenada. Ja nie lubię programowania bo w programowaniu się nie całkuje. Żeby być świetnym fizykiem teoretykiem bądź matematykiem wymyślającym twórcze teorie nie trzeba w ogóle znać programowania. Od programowania obliczeń są „klepacze” kodu. I tak powinno pozostać. Do wymyślania prawdziwie głębokich teorii wystarcza piękny umysł, kartka papieru i długopis. Ale niestety wiedza i poznanie nie należą do priorytetów neuro-typowego świata.
„Żeby być świetnym fizykiem teoretykiem bądź matematykiem wymyślającym twórcze teorie nie trzeba w ogóle znać programowania.”
Nieprawda. To było dobre sto lat temu, albo sto pięćdziesiąt. A twórcze teorie to przeszłość. No chyba, że hipoteza to teoria.
Cześć,
Chciałem raczej przytoczyć teorię Czarnych Dziur nad którą przez całe swoje życie aż do dnia śmierci pracował Stephen Hawking. A zmarł on w marcu 2018 roku czyli niespełna siedem lat temu. Po jego śmierci pracę nad tą teorią kontynuują Andrew Strominger, Malcolm Perry i Sasha Haco. Można wspomnieć też o rozsławionej w latach 80tych i 90tych XX wieku Teorii Chaosu, która obecnie wraca do łask jak również Teorii Strun, która cały czas jest wykorzystywana we współczesnej fizyce teoretycznej. Chodzi mi o to, że Nobel z fizyki powinien dotyczyć kolejnego odkrycia w kwestii działania i mechanizmu Praw Natury. Natomiast obecna nagroda nie została wręczona za odkrycie w dziedzinie fizyki, nie za matematyczno-fizyczną teorię a za projekt czysto biznesowy. To pokazuje główną narrację świata. Obecną i przyszłą. I oznacza to moim zdaniem koniec matematyki i fizyki teoretycznej. Zamiast badać prawidła rządzące Wszechświatem zostanie rozwijany projekt, który z prawdziwą nauką ma wspólnego tyle co nic. To projekt biznesowy a biznes- wiadomo-nauką nie jest mimo, iż stara się usilnie do tego miana pretendować. Polecam obejrzeć film z Leonardo di Caprio zatytułowany „Nie patrz w górę”. Bodajże na Netflixie. Pokazuje on bardzo podobną sytuację. Jest tam postać Bash’a, biznesmena, który dysponuje majątkiem o wiele większym od majątku rządu Stanów Zjednoczonych. Postać ta łudząco przypomina Elona Muska, który był bankowcem i informatykiem a jest obecnie biznesmenem. Jest scena podczas, której dowiadujemy się , że jakaś „ważna” fizyczka bądź chemiczka otrzymała nagrodę Nobla za jakąś kompletną pierdołę po to by zasilić czyjś biznes. Na koniec polecam także książkę znanego filozofa Ericha Fromma: „Patologia Normalności”. Mimo, iż jej treść ma około 70lat(nie sto) to jest chyba bardziej aktualna niż kiedykolwiek. Chciałbym tylko przypomnieć, że językiem Natury jest matematyka, zaś informatyka jest jedynie językiem maszyny liczącej, czyli komputera i nie wolno traktować jej jako fizyki.