Miara wszechrzeczy, czyli pofilozofujmy

Zmysły, czym są, każdy wie. To analogowe rejestratory niektórych, niezbędnych do przeżycia wielkości fizycznych. Dobór naturalny jest skąpy w dzieleniu umiejętności, daje tylko wtedy, kiedy musi. I tylko tyle, na ile go stać.

Weźmy, na ten przykład, wzrok. Światło to fala elektromagnetyczna. Narząd wzroku rejestruje bardzo wąski zakres długości fal: 380-780 nanometrów. To zaledwie wycinek elektromagnetycznego widma, którego częstotliwości rozciągają się od prawie zera (długie fale radiowe) do prawie nieskończoności (promieniowanie gamma). Czy człowiekowi pierwotnemu potrzebna była detekcja i rejestracja tak szerokiego zakresu? Przecież oświetlające Ziemię Słońce emituje także mikrofale, fale radiowe, podczerwień, ultrafiolet, częstotliwości rentgenowskie, a nawet promieniowanie gamma. Odpowiedź brzmi NIE, koszt takiej inwestycji wielokrotnie przerastałby nakłady, a w większości przypadków budowa takich receptorów byłaby niemożliwa z powodu sprzeczności z biologicznym paradygmatem budowy organizmów żywych, chemią i fizyką budowy białek.

Ryc. 1 Widmo fal elektromagnetycznych. Licencja: Wikimedia Commons

Jak sięgać tam, gdzie wzrok nie sięga? Jak sprawdzić głębokość rzeki w poszukiwaniu brodu? Są na to dwa sposoby: porównywać albo mierzyć. Porównywanie jest łatwiejsze, nie wymaga analizy i zapamiętywania wyników; jest też skuteczne i praktyczne. Wystarczą zmysły, niewielka pamięć operacyjna i prosty ośrodek decyzyjny.

Rozwój mózgu dodaje do tego mechanizmu nowy wymiar. Analiza informacji, wyciąganie wniosków i zapamiętywanie wyników doświadczeń i ich projekcja na nowe sytuacje to silna broń ewolucyjna. Eliminuje konieczność każdorazowego doświadczania zagrażającej życiu sytuacji i znacząco podnosi prawdopodobieństwo przetrwania. Nic dziwnego, że ewolucja szybko podchwyciła ten pomysł.

Mamy więc zmysły, które dostarczają mózgowi wartości pomiarowych niektórych wielkości występujących w otoczeniu. Mózg analizuje, mierzy, porównuje i zapamiętuje, tworząc coś, co nazywamy doświadczeniem życiowym. Pozwoli to w przyszłości uniknąć konieczności doświadczania zjawisk, których już doświadczyliśmy, gdyż ich zapis został zarejestrowany w pamięci. Możemy to porównać do pamięci cache w komputerach, która jest szybka, tania i bezpieczna.

Pomiary bezpośrednie to nie wszystko. Zakresy pomiarowe oferowane przez zmysły (380-780 nm dla światła, 20-20000 Hz dla dźwięków, zakres temperatur od minus kilkudziesięciu do kilkuset stopni) to niewiele. Niektóre wielkości możemy mierzyć pośrednio, przez obserwację odpowiednich zjawisk wtórnych. Bardzo wysoka temperatura wywołuje świecenie, a barwa światła świadczy o temperaturze. Infradźwięki powodują niesłyszalne, ale wyczuwalne drgania. Woda, zamarzając, zmienia stan skupienia. Światło podczerwone wywołuje uczucie ciepła, rejestrowane przez zmysł dotyku. Niektóre wielkości, jak czas, w ogóle nie wymagają receptorów, mózg potrafi zmierzyć go bez odwoływania się do zmysłów.

Na tym kończy się prosta metrologia zmysłowa. Można się spierać, która wielkość była pierwszą mierzoną wielkością. Może to był czas i doba słoneczna? Może patyk o długości ciała człowieka, który był jednocześnie czujnikiem i przedłużeniem ręki? Zostawmy to filozofom.

Byt kształtuje świadomość i przez długi czas to wystarczało, by żyć w harmonii z otoczeniem. Dopiero rozwój cywilizacyjny i rozwój zjawisk społecznych, w tym handlu, uświadomił, że przydałoby się niektóre wielkości mierzyć dokładniej i w szerszym zakresie, a pomiary powinny być powtarzalne. Zwłaszcza powtarzalność i precyzja pomiarów stały się ważne.

Człowiek współczesny (Homo smartfonicus) jest otoczony miernikami. W zasięgu wzroku mamy kilka zegarów, kilka termometrów, mnóstwo mierników mierzących różne częstotliwości fal elektromagnetycznych, dźwiękowych. Do tego sztuczne ośrodki decyzyjne w postaci sygnalizatorów (świetlnych, dźwiękowych) przekroczenia wartości progowych niektórych wielkości. Pomiary, pomiary, pomiary. Wszędzie protezy naszych zmysłów. I ciągle nam mało. Marzymy o protezach mózgu podejmujących za nas decyzje, wartościujących i przekazujących nam gotowe podpowiedzi, abyśmy tylko nacisnęli odpowiedni klawisz. Już nawet nie chcemy decydować, chcemy wygodnie trwać (a może tylko wegetować?).

Mówi się, że matką wynalazków jest lenistwo, ale jeśli pozbędziemy się obowiązku myślenia, to do czego będziemy stworzonej przez nas cywilizacji potrzebni? Do konserwacji i oliwienia sztucznej inteligencji? Jaki będzie z nas pożytek dla ekosystemu? Mało, że nie integrujemy się z nim, to nie produkujemy liczącej się wartości dodanej, a nawet, w dłuższej skali czasowej, jesteśmy szkodnikami i pasożytami.

Ryc. 2 Zegar słoneczny projektu Przypkowskiego na fasadzie budynku na Starym Mieście w Warszawie. Licencja CC BY-SA 3.0 (Andrzej Barabasz)

Na przykładzie zegara słonecznego możemy sformułować pierwszą zasadę rozwoju przyrządów pomiarowych: zwiększenie dokładności.

Druga zasada rozwoju metrologii to powtarzalność pomiarów. Istnieje wiele sposobów pomiaru tej samej wielkości fizycznej, na przykład czasu. Czas oddziałuje na materię na wiele sposobów. Każde z tych oddziaływań można mierzyć, gdyż zjawiska fizyczne są powtarzalne, przynajmniej na gruncie fizyki klasycznej. Płynięcie wody, naprężenie sprężyny, drgania atomów różnych kryształów, obroty pulsarów, wszystko to daje się zmierzyć. No to mierzymy. Rozwój zegarów był w historii techniki chyba najbardziej burzliwym i długim rozwojem. Co ciekawe, trwa nadal.

Trzeci nurt rozwoju metrologii to zwiększanie zakresu pomiarowego. Będzie o tym oddzielny wpis. Oba końce tego wektora z dwoma zwrotami (najmniejsze i największe jednostki pomiarowe) są równie ważne. W przypadku czasu istnieją pewne ograniczenia, choć, z punktu widzenia filozofii, niekoniecznie muszą istnieć. Najdłuższy możliwy do zmierzenia czas to wiek Wszechświata, obecnie szacowany na 13,8 miliarda lat. Najkrótszy to tzw. czas Plancka, czyli 5,39 * 10-44 sekundy. Jesteśmy w stanie zmierzyć czasy rzędu zeptosekund, czyli 10-21 sekundy (piszę o tym we wpisie Atomowe rekordy Guinnessa (1)), więc brakuje nam tylko podzielić zeptosekundę na 1023 części, żeby móc się cieszyć możliwością mierzenia całego „widma” czasu.

Nie tylko K-202, czyli o Jacku Karpińskim

Jacka Karpińskiego przedstawiać nie trzeba, to konstruktor minikomputera K-202, o rewelacyjnych jak na swoje czasy parametrach technicznych. Był inżynierem-wizjonerem, niespokojną duszą, pełnym pomysłów geniuszem technicznym. Polskim Teslą.

Żołnierz batalionu “Zośka” Szarych Szeregów, w plutonie „Alek” (służył w jednym plutonie z Krzysztofem Kamilem Baczyńskim), uczestnik Powstania Warszawskiego, trzykrotnie odznaczony Krzyżem Walecznych.

Po studiach na Politechnice Warszawskiej, w 1951 roku podjął pracę w zakładach „Warel”, produkujących urządzenia elektroniczne na potrzeby wojska. Skonstruował tam automatyczny nadajnik krótkofalowy o mocy 2 kW NPK-2, używany do łączności z ambasadami.

AAH

Pierwszym samodzielnym dziełem Karpińskiego był AAH czyli Analogowy Analizator Harmonicznych. Po tą nazwą kryje się lampowe urządzenie do rozkładu dowolnych krzywych ciągłych na składowe harmoniczne, czyli znana wszystkim inżynierom transformata Fouriera. Krzywa ciągła jest przedstawiana jako superpozycja przebiegów sinusoidalnych o różnych częstotliwościach. Taką krzywą można analizować matematycznie (w tym statystycznie) dużo łatwiej niż skomplikowaną krzywą wyjściową. AAH został skonstruowany w 1957 roku w Instytucie Maszyn Matematycznych i Instytucie Podstawowych Problemów Techniki PAN (IPPT), gdzie Karpiński był adiunktem. Maszyna od razu znalazła zastosowanie w WIHM (Wojskowy Instytut Hydrologiczno-Meteorologiczny), w powołanym w 1956 roku Zakładzie Długoterminowych Prognoz Pogody, poprawiając dokładność prognoz o kilkanaście procent. Wartym odnotowania jest fakt, że było to pierwsze tego rodzaju urządzenie w Europie.

AAH umożliwiał tworzenie statystycznych modeli długoterminowych do przygotowania prognoz średniej miesięcznej temperatury powietrza i sumy opadów atmosferycznych dla Warszawy.

W 1965 roku w raporcie Światowej Organizacji Meteorologicznej (WMO) opublikowano artykuł „Statistical methods in long-range weather forecasting” (Statystyczne metody w długoterminowym prognozowaniu pogody) opisujący analizator AAH i prezentujący efekty jego pracy.

Analizator AAH był zbudowany z 650 lamp próżniowych, miał wymiary 2×1,5 metra. Nie był to oczywiście klasyczny komputer, ale, jak mówił sam Karpiński „zaawansowany procesor obliczeniowy”. Niestety, nie możemy go zobaczyć, uległ zniszczeniu w trakcie transportu.

Ryc. 1 Jacek Karpiński przy maszynie AAH (fot. Lucjan Fogiel)

AKAT-1

Drugim, równie przełomowym dziełem Jacka Karpińskiego był analogowy analizator równań różniczkowych. Analizator jako taki nie był pionierskim wynalazkiem, lampową wersję tego urządzenia ARR stworzył Leon Łukaszewicz już w 1954 roku, wielkości sporego pokoju. Karpiński wykorzystał tranzystory, a jego AKAT-1 sprawiał wrażenie współczesnej konsoli mikserskiej, a nie poważnego urządzenia do poważnych zastosowań. Przypomnijmy, że był rok 1959 (oficjalnie, bo według Karpińskiego AKAT-1 powstał w 1957). Co prawda pierwszy Sputnik już latał po niebie, ale, mikroelektronika była w powijakach, a tranzystor był zaledwie nowinką techniczną. Tu znowu dygresja. Pierwszymi polskimi germanowymi tranzystorami stopowymi były TC11–TC15, wyprodukowane w liczbie kilkunastu tysięcy egzemplarzy. Produkcja tranzystorów na większą skalę rozpoczęła się w 1960 roku. Były to serie TG1-TG5 i TG-70, a rok później TG10, TG20 i TG50. A więc Karpiński skonstruował AKAT-1 na bazie tranzystorów prototypowych, nieseryjnych. Seria tranzystorów TC11-TC15 została opracowana w oparciu o model tranzystora warstwowego TW w IPPT PAN kierowanym przez prof. Janusza Groszkowskiego, pioniera polskiej radioelektroniki. Groszkowski skonstruował pierwszy metalowy magnetron (lampę mikrofalową), który umożliwił Anglikom wykrywanie niemieckich samolotów, rozpracował też system sterowania rakiet V-2. Groszkowski był też kandydatem do nagrody Nobla za prace na temat generacji i stabilizacji częstotliwości.

Ryc. 2 Analizator Równań Różniczkowych AKAT-1. [Muzeum Techniki w Warszawie, Wikimedia Commons]

AKAT-1 był pierwszym na świecie komputerem biurkowym. Wzornictwo (Ryc. 2) robi wrażenie, prawda? Nic dziwnego, jest dziełem plastyków ze słynnego Zakładu Artystyczno-Badawczego Akademii Sztuk Pięknych w Warszawie. W tych czasach, a przypomnijmy, że były to lata pięćdziesiąte, komputery były kompleksem szaf, umieszczonych w ogromnych, klimatyzowanych pomieszczaniach. AKAT-1 przypominał normalny, współczesny komputer desktopowy z konsolą sterującą, ekranem i urządzeniem drukującym wyniki obliczeń. I jak tu nie napisać, że Jacek Karpiński był wizjonerem? AKAT-1, wyprodukowany w jednym egzemplarzu, zachował się i jest obecnie prezentowany w Muzeum Techniki w Warszawie (teraz: Narodowe Muzeum Techniki).

Tak w 1963 roku AKAT-1 był opisywany przez dziennikarza Marka Sadzewicza:
Przyciski oznaczone znakami matematycznymi, szklany ekran jak w telewizji, na ekranie pokazuje się układ współrzędnych i graficzny przebieg funkcji matematycznych. AKAT-1 był maszyną analogową, która wykonywała niezmiernie doniosłe zadanie: wiązała matematykę z rzeczywistością (…) Ogniste zygzaki na szklanym ekraniku mówią, że istnienie jest ruchem i że konkrety można wyobrazić w abstrakcji.”

AKAT-1 był przepustką dla młodego Karpińskiego do nagrody dla młodych talentów UNESCO (miał wtedy 33 lata). Został jednym z sześciu laureatów, którzy otrzymali roczne stypendium w wybranej uczelni. Jacek Karpiński wybrał Harvard, gdzie przez rok pracował w laboratorium zajmującym się badaniami nad sztuczną inteligencją. Przebywał też na MIT (Massachusets Institute of Technology), spotkał się z Johnem Eckertem – konstruktorem ENIAC-a oraz Edwardem Moorem – pionierem badań nad sztuczną inteligencją. Przypomnijmy jeszcze raz, był to początek lat sześćdziesiątych. Propozycje pracy w Stanach Zjednoczonych odrzucił, w tym ofertę pracy w Los Alamos. Tak o tym pisał w 2007 roku:

Przyjmowano mnie jak króla. Byłem tym zresztą bardzo onieśmielony. Miałem zaledwie trzydzieści kilka lat. Po studiach poprosiłem o możliwość odwiedzenia całej długiej listy firm i uczelni. UNESCO zgodziło się. W Caltechu witał mnie rektor ze wszystkimi dziekanami, w Dallas – burmistrz miasta. I wszyscy chcieli, żebym dla nich pracował, począwszy od IBM, a skończywszy na uniwersytecie w Berkeley. W San Francisco proponowano mi nawet stworzenie własnego instytutu„.

Uczciwość przekazu wymaga, aby wspomnieć o współpracy Karpińskiego z polskim wywiadem technologicznym.

Perceptron

Zafascynowanie sztuczną inteligencją szybko przyniosło owoce. Jacek Karpiński skonstruował perceptron. Była to sieć neuronowa, która potrafiła się uczyć. Perceptron Karpińskiego był drugim tego typu urządzeniem na świecie.

Perceptron to najprostsza sieć neuronowa, składająca się z jednego lub więcej niezależnych neuronów McCullocha-Pittsa. Urządzenie implementuje algorytm uczenia maszynowego nadzorowanego. Umożliwia klasyfikowanie parametrów wejściowych do jednej lub więcej klas, po uprzednim wytrenowaniu algorytmu na zbiorach testowych. To podstawy współczesnego uczenia maszynowego (ML).

Perceptron opracowany przez Jacka Karpińskiego w Pracowni Sztucznej Inteligencji Instytutu Automatyki PAN składał się z dwóch tysięcy tranzystorów i potrafił rozpoznawać obrazy otoczenia przekazywane przez dołączoną kamerę. Projekt perceptronu został niestety utrącony przez władze Instytutu z nieznanych powodów, a Karpiński odszedł z IA PAN.

KAR-65 i analizator zderzeń cząstek elementarnych

Jacek Karpiński przeniósł się więc do Instytutu Fizyki Doświadczalnej Uniwersytetu Warszawskiego i zajął się (nareszcie!) konstruowaniem komputerów cyfrowych. Jego pierwsze dzieło to KAR-65, wykonujący 100 tysięcy operacji zmiennoprzecinkowych na sekundę (był rok 1965!). Był to komputer asynchroniczny (nie posiadał zegara), wielokrotnie szybszy i tańszy od królujących wtedy w Polsce komputerów ODRA. A Karpiński nie byłby Karpińskim, gdyby nie znalazł dla niego zastosowania. Zastosowaniem komputera KAR-65 była analiza zdjęć zderzeń cząstek elementarnych. Profesor Jerzy Pniewski, współodkrywca hiperjądra, wybitny fizyk, był kierownikiem Katedry Cząstek Elementarnych w Instytucie Fizyki Doświadczalnej, jedynej instytucji w bloku wschodnim, która współpracowała z CERN. W ramach współpracy Instytut otrzymywał wielkie ilości zdjęć i danych obrazujących zderzenia cząstek elementarnych. Komputery ODRA nie nadawały się do ich analizy, były po prostu zbyt wolne. Stąd propozycja złożona Karpińskiemu i jego niesamowita konstrukcja KAR-65.

Ryc. 3 Jacek Karpiński przy konsoli komputera KAR-65 (źródło epcenter.com.pl)

Projekt i konstrukcja komputera trwały 3 lata. Do budowy wykorzystano polskie tranzystory TG40 i diody DOG-61 w ilości 65 tysięcy. Posiadał pamięć bębnową i system operacyjny opracowany przez samego Karpińskiego (był też programistą). Gabaryty KAR-65 były niewielkie: dwie szafki o wymiarach 1,7×1,4×0,4 metra, interfejs mieszczący się na biurku (Ryc. 3). Autorem projektu plastycznego był Stanisław Tomaszewski, współpracujący wcześniej z Jackiem Karpińskim przy maszynie AKAT-1. Prezentacja komputera odbyła się w 1968 roku w Zakopanem. Niestety, z przyczyn obiektywnych (brak dostępu do zachodnich podzespołów i technologii) urządzenie nie odniosło sukcesu komercyjnego. Zakłady „TEWA”, jedyny w Polsce producent zaawansowanych komponentów elektronicznych, “nie wyrabiały” z zamówieniami. To jednak była głęboka komuna, RWPG, priorytety, wojsko, zimna wojna. Krótko mówiąc, skończyło się na prototypie pracującym dla profesora Pniewskiego.

I co z tym K-202?

Wynalazki Jacka Karpińskiego były preludium, fazą przygotowawczą do dzieła jego życia – minikomputera K-202. Była to też porażka jego życia. Wyprodukowano zaledwie 30 sztuk. Dlaczego? Przyczyn było wiele, obiektywnych i ludzkich, różnych. Nie ma sensu wnikać. Warto tylko zacytować jednego z ówczesnych decydentów: „gdyby dało się stworzyć komputer wielkości walizki… już dawno zrobiliby to Amerykanie”. Komputer Karpińskiego nie miał praktycznie konkurencji pod względem gabarytów, osiągów i elastyczności konfiguracji, a porównywalne komputery PDP-11 firmy DEC Corp. były dużo większe. Miały za to zaplecze finansowe, technologiczne, informatyczne i marketingowe. Co z tego, że K-202 miał potencjał, ale to PDP-11 podbiły świat, a w tzw. demoludach produkowano nawet jego klony, oczywiście bez żadnej licencji, gdyż Polska była objęta embargiem COCOM. W Polsce były to maszyny MERA-60 produkowane przez Meraster w Katowicach. Smutne, że łatwiej (i taniej) było ukraść technologię wraz z oprogramowaniem systemowym i sklonować popularny sprzęt zachodni niż rozwijać własne, często lepsze, konstrukcje. Kradzieże technologii zachodnich były normą w krajach “demokracji ludowej”, były wręcz filarem rozwoju technologicznego. Zainteresowanych tematem odsyłam do opracowania Piotra R. Frankowskiego Wspólnota czerwieni na niniejszym blogu.

Ryc. 4 Jacek Karpiński prezentuje genialny, jak na owe czasy, komputer K-202 podczas targów Olimpia w Londynie (1971). Fot. Muzeum Techniki w Warszawie

K-202 był bezpośrednim przodkiem popularnego, zwłaszcza w ośrodkach akademickich, mikrokomputera MERA-400, jak na tamte czasy demona szybkości, z nowoczesnym systemem operacyjnym SOM-3 lub uniksopodobnym CROOK, szybkim kompilatorem Fortranu, pamięcią operacyjną 64k słów 16-bitowych i pamięcią dyskową (całe 2 megabajty).

Produkcji komputera K-202 zaprzestano przede wszystkim z przyczyn finansowych. Wszystkie podzespoły musiały być sprowadzane za dewizy z Anglii, a produkcja serii pilotażowej pochłonęła 3 miliony dolarów. Zjednoczenie MERA odmówiło finansowania, a Karpiński odmówił kontynuacji prac w oparciu o polskie podzespoły. Pozostał projekt i zespół pod kierownictwem głównego konstruktora Elżbiety Jezierskiej-Ziemkiewicz. To dzięki jej uporowi wrócono do projektu, zamieniając wszystkie podzespoły na polskie, włącznie z monitorami, drukarkami i jednostkami pamięci. Oraz, oczywiście, nowym oprogramowaniem. Produkcję powierzono zakładom ERA w Warszawie (później zmieniły nazwę na MERA). Ponieważ MERA już produkowała komputer MERA-300, nowy produkt nazwano MERA-400. Komputer MERA-400 był produkowany w latach 1976-1987, pracował we wszystkich polskich uczelniach, a z uwagi na wielozadaniowość i szybkość znalazł wiele zastosowań przemysłowych, między innymi do kontroli procesów technologicznych.

Na MERZE-400 tworzyłem swoją pracę magisterską – język symulacyjny do symulacji układów dynamicznych ciągłych – to taki rozwiązywacz/całkowacz układów równań różniczkowych. Trochę jak AKAT-1 Karpińskiego, ale w wersji cyfrowej, programowalnej. Powiem Wam, fajny był ten komputer.

Ryc. 5 MERA-400 (źródło: https://www.zabytki-techniki.org.pl/index.php/muzeum-sil-powietrznych-w-deblinie-wirtualny/172-elektronika/1162-mikrokomputer-mera-400)

Ciekawostka, specjalnie na potrzeby komputera MERA-400 napisano język programowania LOGLAN, wzorowany na języku Simula 67, pierwszym języku obiektowym. LOGLAN, jak wiele innych genialnych dzieł polskiej myśli technologicznej, został zapomniany, zespół rozpadł się, a jego twórcy porozjeżdżali się po całym świecie, robiąc kariery naukowe.

Dokończenie historii, jakże symbolicznej…

Jacek Karpiński popadł w niełaskę władz. W dramatycznych okolicznościach stracił pracę w zakładach MERA. Niepisany „wilczy bilet” zakazywał mu pracy w dziedzinie, w której był najlepszy. Wyjechał na Warmię, hodował drób i świnie. Po 1980 roku, mimo zmian politycznych nadal był na cenzurowanym, władze nie zgodziły się na objęcie przez niego kierowniczego stanowiska w Instytucie Maszyn Matematycznych. Wyjechał więc do Szwajcarii, gdzie pracował u Stefana Kudelskiego, producenta profesjonalnych magnetofonów NAGRA. Zaprojektował skaner ręczny Pen-Reader z funkcją optycznego rozpoznawania tekstu (OCR), który jednak nie przyjął się na rynku. Do Polski wrócił w 1990 roku, zostając doradcą w dziedzinie informatyki Leszka Balcerowicza i Andrzeja Olechowskiego. Zmarł 21 lutego 2010 we Wrocławiu.

Źródła:

  1. https://www.blog-wajkomp.pl/przesladowany-geniusz-o-ciekawym-zyciu-jacek-karpinski-aah/
  2. https://obserwator.imgw.pl/polska-na-mapie-historii-prognoz-dlugoterminowych/
  3. http://www.sztuka.net/palio/html.run?_Instance=sztuka&_PageID=855&_cms=newser&newsId=13485&callingPageId=854&_CheckSum=-1043189960
  4. http://digitalheritage.pl/2022/12/04/akat-1/
  5. https://www.rp.pl/nowe-technologie/art2792031-jacek-karpinski-komputerowy-prorok-skonczylby-90-lat
  6. https://www.blog-wajkomp.pl/polskie-komputery-okresu-prl-u-system-mera-400/
    oraz Wikipedia

Zobaczyć atom i…

Czy można zbudować mikroskop bez obiektywu?
Można.
Czy można za pomocą tego mikroskopu obserwować atomy?
Można.

O ptychografii

Zacznijmy więc od wyjaśnienia, czym jest ptychografia (starogrecki: πτύξ oznacza „składanie”). Jest to metoda obrazowania za pomocą komputerowej analizy i nakładania wielu nakładających się obrazów dyfrakcji i interferencji światła widzialnego (lub wiązki elektronów, promieniowania rentgenowskiego, skrajnego ultrafioletu) przechodzącego przez badaną próbkę. Obraz pierwotny jest odtwarzany iteracyjnie na podstawie natężenia promieniowania ugiętego na obiekcie i fazy interferujących fal. Brak soczewek eliminuje problem dokładności ich wykonania i różnego rodzaju aberracji optycznych. Dotyczy to także soczewkowania elektronów w mikroskopie elektronowym. Inną, równie ważną zaletą, w porównaniu do mikroskopii elektronowej, jest fakt, że badane próbki nie muszą być barwione ani znakowane.

Ryc. 1 Zasada działania ptychografii. Licencja GNU Free Documentation License

Obraz ptychograficzny jest prawie doskonały, pozbawiony wad analogowych obrazów optycznych, zniekształceń, rozmyć i aberracji. Najczęściej obecnie stosowanymi urządzeniami wykorzystującymi tę technikę są mikroskopy rentgenowskie, gdzie pierwotną falą propagacyjną jest spójne promieniowanie rentgenowskie. Wachlarz zastosowań jest niezmiernie szeroki i ważny m.in. dla współczesnej technologii materiałowej. Mikroskopy rentgenowskie są wykorzystywane do badania farb, chemicznego obrazowania baterii, obrazowania warstw ogniw słonecznych i innych materiałów hi-tech. Ptychografia w świetle widzialnym jest używana do badań biologicznych komórek, ich wzrostu, reprodukcji oraz ruchliwości. Dzięki ptychografii możliwy jest rozwój badań materiałów anizotropowych jak na przykład metapowierzchnie czyli cienkie warstwy materiałów z wzorami nanoskalowymi pozwalające manipulować padającym na nie światłem. Nie byłoby też współczesnej nanotechnologii i nanomateriałów bez obrazowania ptychograficznego.

Historia

Pionierem ptychografii jest Walter Hoppe, który w 1969 roku opisał jej założenia i podstawy teroretyczne. Celem Hoppego było badanie struktur krystalicznych. Niestety, nie doczekał realizacji swojej idei, a to z powodu niewystarczającej mocy obliczeniowej ówczesnych komputerów oraz słabej jakości detektorów. Koncepcja ptychografii została przez niego porzucona w 1973. Dopiero w późnych latach 90. XX wieku komputery dysponowały odpowiednią mocą i pamięcią pozwalającymi na przeprowadzenie zasobochłonnych obliczeń. Prawdziwy rozwój ptychografii jako techniki mikroskopowej rozpoczął się w 2007 roku, kiedy zademonstrowano iteracyjną ptychografię rentgenowską w Swiss Light Source, nowym synchrotronie w Instytucie Paula Scherrera w Szwajcarii.

Zobaczyć atom

Wiadomo, że klasyczna mikroskopia elektronowa pozwala “zobaczyć” atomy, a właściwie domyślić się ich położenia, bo jakość obrazu pozostawia wiele do życzenia. Więc o co ten szum? Otóż o to, że algorytmy ptychograficzne pozwalają pięciokrotnie poprawić rozdzielczość obrazu z soczewki elektronowej stosowanej w mikroskopach elektronowych. Pokazano to w 2012 roku, a w 2018 pobito rekord Guinnessa w rozdzielczości mikroskopu (rekord poprawiono w 2021).
Obrazy ptychograficzne są rekonstruowane praktycznie bezstratnie i jedynymi zniekształceniami obrazu atomu są drgania termiczne. Nowy (2021) matrycowy detektor pikseli mikroskopu elektronowego (EMPAD) oferuje rozdzielczość 1 pikometra (pm) czyli 10-12 metra. Wielkość atomu to rząd wielkości
10-10 metra czyli 100 pm. A więc można obserwować prawdziwy obraz prawdziwego atomu a nie tylko rozmytą plamkę. W dodatku w trzech wymiarach. Jest to technika, która już znajduje wiele zastosowań, między innymi w technologii półprzewodników, katalizatorów, materiałów kwantowych (komputery kwantowe).

Ryc. 2 Obraz cząsteczek dwusiarczku molibdenu MoS2 w “niskich” rozdzielczościach oraz rozdzielczości 0,39 angstrema (Å) pozwalającej zaobserwować puste, widmowe miejsce po atomie siarki.
Źródło [1] DOI 10.1038/s41586-018-0298-5 [5]

Rzeczywiste powiększenie mikroskopu zespołu naukowców z Cornell University pod kierownictwem Davida Mullera wynosi 100 milionów. Ciekawostką jest, że detektor EMPAD celowo rozmywa nieco wiązkę, aby poprawić rekonstrukcję cyfrową. [4]

Ryc. 3 Zdjęcie atomów ortoskandanu prazeodymu (PrScO3) wykonane za pomocą ptychografii elektronowej. Źródło: Cornell University [3]

Lepszą, ale tylko trochę, rozdzielczość można uzyskać schładzając próbkę. Jednakże nawet w temperaturze zera absolutnego występują fluktuacje kwantowe rozmazujące obraz, więc można powiedzieć, że osiągnięto fizyczną granicę mikroskopii, 100000000x. Być może postęp w wydajności komputerów i bardziej wydajne algorytmy, w tym algorytmy sztucznej inteligencji oparte na uczeniu maszynowym poprawią te wyniki.

Ryc. 4 David Muller i jego mikroskop elektronowy z dopalaczem EMPAD.
Źródło: Jessie Winter dla Nature [1]

Opisana wyżej ptychografia bezsoczewkowa jest nazywana klasyczną. Technikę obrazowania za pomocą składania obrazu docelowego z obrazów cząstkowych za pomocą algorytmu z wykorzystaniem mikroskopu o standardowej optyce nazywamy ptychografią Fouriera. Dlaczego Fouriera? Ponieważ algorytmy obliczeniowe wykorzystują transformatę Fouriera do uzyskania obrazu o wysokiej rozdzielczości. Jedyną znaczącą zmianą jest zastąpienie standardowego oświetlenia oświetleniem szeregiem diod LED. Program rekonstruujący obraz badanego przedmiotu wykorzystuje algorytm iteracyjnego odzyskiwania fazy z szeregu obrazów dyfrakcyjnych. Współczynnik poprawy rozdzielczości w stosunku do obrazu analogowego z mikroskopu jest znaczący i wynosi 2, a jeśli stosuje się obrazy ciemnego pola to poprawa rozdzielczości jest jeszcze większa.

Można się spodziewać dalszego szybkiego rozwoju ptychografii gdyż jej zastosowania wpasowują się idealnie w kierunki rozwoju hi-tech, a postęp w wydajności komputerów nadal podlega prawu Moore’a. Nie zabraknie więc finansowania badań ani zapotrzebowania na tego typu urządzenia. Nawet ciekawostka w postaci uzyskania wyraźnych obrazów pojedynczych atomów i cząsteczek nie jest tylko ciekawostką ale furtką do zaawansowanej nanotechnologii i inżynierii materiałowej na poziomie atomowym.

Źródła:
1. https://www.nature.com/articles/d41586-018-07448-0?cid=2019-MS-AwarenessGeneral&utm_source=Comms-Blog&utm_medium=EM%20Blog&utm_campaign=2019-MS-AwarenessGeneral
2. https://pubs.aip.org/physicstoday/article-abstract/74/9/42/928275/Ptychography-A-solution-to-the-phase-problemFirst?redirectedFrom=fulltext

3. https://www.chip.pl/2021/05/atomy-ogladane-w-rekordowej-rozdzielczosci

4. https://www.focus.pl/artykul/naukowcy-sfotografowali-atomy-w-rekordowej-rozdzielczosci-czy-to-limit-obrazowania

5. https://www.thermofisher.com/blog/materials/breaking-barriers-in-sub-angstrom-resolution/