Kryptografia kwantowa, czyli w poszukiwaniu absolutu

Ten artykuł jest rozwinięciem tekstu Splątanie kwantowe, czyli coś, co działa, ale nie wiadomo dlaczego, w którym zostaną przybliżone zagadnienia kryptografii kwantowej.

Po pierwsze należy wyjaśnić, co rozumiemy przez pojęcie „kryptografia kwantowa”. Kryptografia kwantowa, przynajmniej ta stosowana obecnie, nie polega na kwantowym szyfrowaniu przekazu informacji. To odbywa się nadal metodami i algorytmami tradycyjnymi. Zjawiska kwantowe są używane do bezpiecznej transmisji klucza szyfrującego, wykorzystując zasadę nieoznaczoności Heisenberga mówiącą, że każde odczytanie polaryzacji fotonu powoduje bezpowrotne zniszczenie tej informacji. Oznacza to, że każda ingerencja mająca na celu podsłuchanie przesyłanego klucza może być wykryta i powoduje ponowne jego przesłanie, aż do skutku. Przy przesyłaniu kwantów światła nie ma możliwości podsłuchu pasywnego, każdy odczyt strumienia fotonów powoduje jego wykrywalne zakłócenie.

Kwantowa dystrybucja klucza (Quantum Key Distribution QKD) wykorzystuje dwa kanały przesyłu: tradycyjny światłowód jako kanał publiczny oraz kanał kwantowy (też światłowodowy) do przesyłu pojedynczych fotonów klucza. Kanał kwantowy jest dużo wolniejszy od kanału publicznego z dość oczywistych względów, transmituje strumień pojedynczych fotonów a nie ich modulowaną wiązkę. Oba kanały są używane do różnych celów, które opiszę dalej.

Znamy wiele protokołów QKD, spora w tym też zasługa polskich naukowców. Opiszę jeden z nich, podstawowy protokół Bennetta-Brassarda zwany BB84 opracowany w 1984 roku.

Podstawy

Konieczne jest zapoznanie się z podstawowymi pojęciami dotyczącymi polaryzacji kwantu światła (fotonu). Światło jest falą elektromagnetyczną, która drga we wszystkich możliwych kierunkach. Przepuszczenie światła przez odpowiedni ośrodek powoduje, że drgania stają się uporządkowane i odbywają się tylko w jednej płaszczyźnie. Mówimy wtedy o polaryzacji liniowej, płaszczyznę nazywamy płaszczyzną polaryzacji, a kąt, który tworzy płaszczyzna polaryzacji z płaszczyzną pionową – kątem polaryzacji. W kryptografii kwantowej używa się polaryzacji pionowej (0 stopni i 90 stopni) oraz ukośnej (45 stopni i 135 stopni). Nazywamy je bazami – odpowiednio: baza prosta i baza ukośna.

Kryptografia kwantowa wykorzystuje dwa kanały: kwantowy kanał komunikacji prywatnej i klasyczny kanał komunikacji publicznej. Kanał kwantowy służy do wymiany klucza za pomocą cząstek kwantowych (fotonów), a kanał publiczny do uzgadniania baz (o tym później) i korekcji błędów.

Kryptografia kwantowa opiera się na dwóch cechach mechaniki kwantowej: zasadzie nieoznaczoności Heisenberga i twierdzeniu o nieklonowaniu. Twierdzenie o nieklonowaniu mówi, że ​​nie jest możliwe utworzenie identycznych kopii nieznanego stanu kwantowego. Dzięki temu można dowiedzieć się, czy ktoś przerwał (podsłuchał) kanał kwantowy podczas transmisji.

Wysyłany foton jest spolaryzowany w jednej z dwóch baz (prosta i ukośna), a w ramach bazy: pionowo lub poziomo dla bazy prostej i diagonalnie lub antydiagonalnie dla bazy ukośnej, co jest znane jedynie nadającemu. Wybór bazy i polaryzacji w ramach bazy odbywa się losowo. Odbiornik, za pomocą losowo wybranej bazy odczytuje polaryzację fotonu. Od strony technicznej odczyt odbywa się poprzez przepuszczenie fotonu przez kryształ kalcytu, charakteryzujący się dwójłomnością, czyli współczynnik załamania w tym krysztale zależy od kierunku polaryzacji światła, który, w zależności od polaryzacji fotonu aktywuje prąd elektryczny w jednym z dwóch fotopowielaczy. Odczytana informacja binarna, 0 lub 1, zależy od kierunku jednej z czterech możliwych polaryzacji.

Ryc. 1 Alfabet kwantowy [1]

Protokół Bennetta-Brassarda (BB84)

Tradycyjnie nadawcę nazywamy Alice, a odbiorcę Bobem. A więc Alice zamierza przesłać bezpiecznie klucz szyfrujący jako ciąg losowo spolaryzowanych fotonów do Boba. Posługując się podanym wyżej alfabetem jest to ciąg bitów. W tym celu dla każdego fotonu losowo wybiera jedną z dwóch baz (prosta, ukośna) i jedną z dwóch ortogonalnych polaryzacji w zależności od wartości wysyłanego bitu i wysyła spolaryzowany foton kanałem kwantowym. Ciąg wysyłanych bitów też może być losowy, jest to nawet wskazane ze względów bezpieczeństwa. Bob, dla każdego odebranego fotonu wybiera losowo bazę do odczytu i odczytuje polaryzację, a tym samym wartość bitową. Następnie wysyła (kanałem publicznym) listę wybranych przez siebie baz. Wyniki odczytu zachowuje w tajemnicy. Alice wybiera jako poprawne tylko te fotony, dla których występuje zgodność baz jej i Boba i kanałem publicznym informuje o tym Boba, które bazy zostały wybrane poprawnie. Wybór jednakowych baz jest spowodowany tym, że tylko zgodne bazy gwarantują, że Bob odbierze to, co Alice wyśle. Różne bazy wywołają kwantowy efekt losowości, gdzie Alice wysyła „1” a Bob odczytuje „0”. Bob, kasuje niepoprawne bity, a pozostałe (poprawne) są traktowane jako klucz szyfrujący.

Ryc. 2 Przykład transmisji niepodsłuchiwanej [2]

Wszystko fajnie, ale gdzie tu kwantowa innowacyjność?

Załóżmy, że ktoś podsłuchuje, włącza się do transmisji, odczytuje fotony (bity) wysyłane przez Alice i następnie przesyła dalej do Boba. Niech się nazywa Ewa. Ewa nie zna bazy wybranej przez Alice więc musi zgadywać, dokonując odczytu za pomocą baz wygenerowanych losowo, które wcale nie muszą być zgodne z bazami Alice. Alice i Bob nie wiedzą o obecności Alice, ale mogą wykryć podsłuch metodami statystycznymi.

Prawidłowa i niepodsłuchiwana transmisja klucza powinna zawierać około 50% bitów pewnych, wybranych przez Alice na podstawie porównania baz, 25% bitów prawidłowych, mimo złego wyboru bazy przez Boba i 25% bitów nieprawidłowych. Aby wykryć podsłuch, wybiera się pewien ciąg fotonów, na które Bob i Alice nałożyli te same bazy, i sprawdza się, czy uzyskano te same wyniki. Jeśli przynajmniej dla jednego fotonu uzyskano różne wyniki mimo nałożenia tych samych baz, to oznacza to, że na łączu wystąpił podsłuch.[3]. Do wykrycia podsłuchu wystarczy sprawdzenie 10% bitów transmitowanego klucza, zakładając, że klucz jest długi. Skąd to założenie? Istnieje niezerowe prawdopodobieństwo, że Ewa przypadkiem wylosuje właściwe bazy, takie, jakich użyła Alice. Jednak wraz z długością klucza to prawdopodobieństwo maleje do wartości bliskich zera. A klucze szyfrujące są długie, gdyż są to przeważnie klucze jednorazowe o długości równej długości przesyłanego komunikatu. Oczywiście Ewa, podsłuchując kanał jawny, pozna niewielką część klucza użytego do kontroli transmisji, ale to nic nie szkodzi.

Ryc. 3 Przykład transmisji podsłuchiwanej [2]

Kwantowy generator liczb losowych

Zjawisko losowej zmiany polaryzacji fotonu po przepuszczeniu przez kryształ jest wykorzystywane do generowania liczb prawdziwie losowych. Dotychczas posługiwaliśmy sie generatorami liczb pseudolosowych, które są algorytmami komputerowymi obliczającymi ciągi liczb na podstawie zadanej z góry liczby zwanej seed (zarodek, ziarno). Określenie „pseudolosowy” jest tu całkowicie uzasadnione, ponieważ generator może z jednego ziarna wyprodukować tylko jeden ciąg liczb, a więc znając ziarno możemy przewidzieć każdy element ciągu liczb pseudolosowych. Pytani, skąd wziąć seed? Wartość seed może być narzucona arbitralnie przez programistę lub użytkownika lub pochodzić z kolejnego generatora liczb pseudolosowych. Krąg zamknięty. Nie znaczy to, że taki generator jest bezużyteczny. Jest przydatny do wielu zastosowań, rozkłady statystyczne są prawidłowe, ale jednak do zastosowań wymagających absolutnej losowości takie rozwiązanie jest, powiedzmy, średnio przydatne. Takim zastosowaniem jest kryptografia z kluczem jednorazowym, gdzie nieprzewidywalność wartości klucza jest warunkiem koniecznym zachowania bezpieczeństwa. Klucz taki byłby nie do złamania.

Artur Ekert i jego E91

Za ojca kryptografii kwantowej opartej na splątaniu kwantowym uważany jest Artur Ekert, polski profesor fizyki pracujący na co dzień w Oxford University, laureat wielu prestiżowych nagród, m.in. Medalu Maxwella, Nagrody Kartezjusza, Medalu Hughesa, a ostatnio Royal Society Milner Award and Lecture.

Profesor Ekert jest autorem jednego z najlepszych protokołów kwantowej dystrybucji klucza E91, który nowatorsko wykorzystuje zjawisko splątania kwantowego. Jest też jednym ze współtwórców opisywanego tu protokołu BB84.

Ryc. 4 Autorzy protokołu BB84: Charles H Bennett, Gilles Brassard i Artur Ekert.
Źródła: [1][4]

Praktyczne zastosowania QKD

Obecnie wiele ośrodków na świecie prowadzi prace rozwojowe nad komercyjnym zastosowaniem kwantowej dystrybucji kluczy szyfrujących. Jako ciekawostkę można podać przykłady takich nowatorskich zastosowań. W 2004 w Wiedniu wykonano pierwszy przelew bankowy z wykorzystaniem QKD. W szwajcarskim kantonie Genewa wyniki głosowania w wyborach krajowych 2007 przesłano z wykorzystaniem technologii kwantowej. System QKD zainstalowano również w campusie w Columbus w Ohio do przesyłania danych do zakładu produkcyjnego w pobliskim Dublinie.

Wystrzelona w sierpniu 2016 r. misja kosmiczna QUESS utworzyła międzynarodowy kanał QKD między Chinami a Instytutem Optyki Kwantowej i Informacji Kwantowej w Wiedniu – na odległość 7500 km, umożliwiając pierwszą międzykontynentalną bezpieczną kwantową rozmowę wideo. Razem z ośrodkami w Pekinie, Jinan, Hefei i Szanghajem tworzą pierwszą na świecie sieć kwantową przestrzeń kosmiczna-Ziemia.
Sieć liczy ponad 700 naziemnych węzłów optycznych połączonych z dwoma łączami Ziemia-satelita, które zapewniają kwantową dystrybucję klucza na łącznym dystansie 4600 kilometrów.

Ryc. 5 Pierwsza na świecie sieć kwantowa w Chinach.
Źródło: University of Science and Technology of China

W 2024 r. ESA planuje wystrzelenie satelity Eagle-1, eksperymentalnego kosmicznego systemu dystrybucji kluczy kwantowych.

Źródła:

  1. http://dydaktyka.fizyka.umk.pl/Pliki/Kryptografia_kwantowa.pdf
  2. https://home.agh.edu.pl/~kozlow/fizyka/kwantowa%20kryptografia/K.%20Mackowiak,%20krypt_kwant.pdf
  3. https://yadda.icm.edu.pl/baztech/element/bwmeta1.element.baztech-833e2748-3edf-4041-aa71-b49262ff7e90/c/sobota_ZNPSLOZ_74_2014.pdf
  4. https://www.merton.ox.ac.uk/news/professor-artur-ekert-milner-award
  5. https://www.eoportal.org/satellite-missions/quess#launch

Starzenie się, śmierć, nieśmiertelność

Dlaczego starzejemy się i umieramy? Dlaczego nie możemy żyć wiecznie? Pytania te sugerują jakąś intencję lub plan. Ewolucja, bo to ona jest właściwym adresatem tych pytań, niczego nie planuje. Śmierć jako eliminacja „zużytych” osobników po prostu się ewolucji opłaca w realizacji misji – jak najdalszej podróży genów w czasie. „Samolubnych genów”, jak obrazowo określa je Richard Dawkins.

Rezerwy biologiczne/energetyczne są dużo szybciej zużywane przed wydaniem potomstwa, zostawiając względnie niewielkie ilości zasobów „na starość”. Gatunek jako przedmiot ewolucji nie będzie czerpał korzyści z dalszego życia swoich długowiecznych przedstawicieli. Osobniki długowieczne są dla ewolucji ciężarem, zbędnym kosztem. Ekonomia przetrwania wymusza wykształcenie mechanizmów eliminacji „spełnionych” rodziców. I takie mechanizmy istnieją, są widoczne, chyba najwyraźniej u łososi, umierających wkrótce po wyczerpującej wędrówce w górę macierzystej rzeki i odbyciu tarła.

Każdy organizm, rodząc się, posiada rezerwę fizjologiczną, zdolność do samonaprawy naturalnych zmian na poziomie molekularnym. Po przekroczeniu wieku reprodukcyjnego to pozostała rezerwa fizjologiczna w dużym stopniu decyduje o długowieczności organizmu. Z czasem ulega ona wyczerpaniu i nie jest w stanie nadążyć z regeneracją organizmu w tempie odpowiadającym tempu starzenia się. W świecie zwierząt powoduje to osłabienie motoryki, refleksu, ostrości widzenia, ogólnej odporności organizmu, czyli cech decydujących o przetrwaniu. Konsekwencją jest coraz wyższe z wiekiem prawdopodobieństwo, że organizm padnie ofiarą choroby, drapieżnika czy nieszczęśliwego wypadku. Z punktu widzenia ewolucji jest to korzystne, gdyż wydane wcześniej potomstwo jest odciążone od niepotrzebnych „wydatków”, a zaoszczędzone zasoby może przeznaczyć na własny rozwój w kierunku wydania i odchowania własnego potomstwa.

Wszelkie wysiłki mające na celu przedłużenie życia, opóźnianie starości, a nawet nieśmiertelność, są ciężką walką z dobrze przygotowaną do zabijania Naturą i jej mechanizmami doskonalonymi przez setki milionów lat, próbą jej przechytrzenia. Medycyna, jedna z najstarszych dziedzin naszej aktywności jest elementem tej walki. Sukcesy medycyny najlepiej widać po średniej długości życia. W 1950 roku wynosiła ona 47 lat, w 2020 roku były to już 72 lata. Ale ponieważ apetyt rośnie w miarę jedzenia, marzy nam się przekroczenie setki, a może nawet nieśmiertelność.

Przyczyny starzenia [się] – różne teorie

Trochę żartem wziąłem „się” w nawias kwadratowy. To zaimek zwrotny, odpowiednik zaimka „siebie”, co oznaczałoby, że starzejemy siebie, jesteśmy panami swojego starzenia. Niestety, tak nie jest, jesteśmy „starzeni” przez Kogoś. Tym Kimś jest Ewolucja, która starzeje nas rękami Biologii, a ta z kolei posługuje się Chemią. Na samym końcu jest Fizyka, a konkretnie druga zasada termodynamiki, która mówi o stałym i nieuchronnym wzroście entropii w każdym układzie zamkniętym. Wzrost entropii to nic innego jak fizyczny odpowiednik starzenia [się], prowadzącego do śmierci biologicznej.

Istnieje wiele teorii starzenia [się].

Podejście ewolucyjne dzielimy na dwie kategorie, różniące się definicją jednostki podlegającej ewolucji. Teoria altruistycznego samobójstwa zakłada, że tą jednostką jest grupa osobników dysponująca ograniczonymi zasobami. Grupa dzieli się na dwie podgrupy: podgrupę osobników młodych, w wieku rozrodczym i podgrupę „starych”. Osobniki stare poświęcają się dla dobra całej grupy aktywując geny prowadzące do śmierci. Nie jest to oczywiście świadoma decyzja o samobójstwie, ale wynik zmian w komórkach prowadzących do ewolucji gatunku/grupy w tym właśnie kierunku. Altruiści mogą w wyniku ewolucji szybciej się rozprzestrzeniać ponieważ ich potomstwo będzie miało lepsze warunki do rozmnażania się. Przedstawiony mechanizm może się wydawać dość dziwny, ale pamiętajmy, że decyzje podejmuje dobór naturalny działający w interesie grupy i poświęcający pojedyncze osobniki w imię wspólnego dobra (czytaj: przetrwanie grupy). Podobnie jak poniżej opisana teoria „samolubnego genu”, tu mamy do czynienia z „samolubną grupą”. Pojedynczy członkowie grupy nie mają nic do powiedzenia.

Innym podejściem ewolucyjnym jest teoria „samolubnego genu” gdzie przedmiotem ewolucji są pojedyncze geny. Dobór naturalny preferuje geny lepiej dbające o swoją replikację, które w wyniku tego zwiększają swoje szanse na przedłużenie „życia” na następne pokolenia. Organizmy rozmnażające się wegetatywnie lub przez podział nie starzeją się, ponieważ geny letalne są ewolucyjnie eliminowane z organizmu jako hamujące proces replikacji. Nieco inaczej sprawy się mają u organizmów rozmnażających się płciowo. Geny letalne, które pojawiają się w młodym wieku są ewolucyjnie eliminowane ponieważ organizm nie wydał jeszcze odpowiedniej liczby potomków. Jednakże presja ewolucyjna na eliminację genów letalnych słabnie wraz z każdym nowym potomkiem. Niektóre geny, korzystne dla szansy przeżycia organizmu, stają się na starość letalne, co jest dla nich korzystne, ponieważ eliminują osobniki stare i zwiększają w ten sposób swoje szanse na przeżycie w organizmach żyjących potomków.

Istnieją też teorie wiążące śmierć organizmu z naturalnymi przemianami biochemicznymi. Teoria wolnorodnikowa mówi, że bardzo aktywne chemicznie wolne rodniki gromadzące się w komórkach przyspieszają starzenie poprzez degenerację błon komórkowych.

Peter Medawar sformułował w 1952 roku teorię, według której starzenie się jest skutkiem opóźnionego ujawniania się mutacji nagromadzonych w czasie dotychczasowego życia organizmu.

Nieco później, w 1957 roku, George Williams uzupełnił teorię Medawara o wyjaśnienie na gruncie opłacalności ewolucyjnej. Otóż zdaniem Williamsa geny, które przed osiągnięciem wieku reprodukcyjnego działały na korzyść, w okresie późniejszym mają działanie destrukcyjne.

Rozwinięciem teorii Williamsa były prace Thomasa Kirkwooda z 1977, które również, posługując się „ekonomiką ewolucyjną”, bazowały na ograniczonych zasobach będących w dyspozycji organizmu. Kirkwood podzielił komórki na dwie grupy (linie): komórki płciowe i somatyczne. Komórki płciowe mają, w odróżnieniu od komórek somatycznych, ekstremalnie skuteczne mechanizmy naprawcze, gdyż po spełnieniu obowiązku prokreacyjnego, utrzymanie organizmu w pełnej sprawności, a tym bardziej wiecznie, jest zwyczajnie nieopłacalne. Komórki zaczynają się starzeć i po pewnym czasie organizm jest eliminowany z populacji.

Komórki płciowe nie starzeją się, a podział na dwie linie – płciową i somatyczną pozwolił na budowanie bardziej złożonych organizmów poprzez selektywne aktywowanie genów w różnym czasie od zapłodnienia. Jest to korzystne dla „samolubnych genów”, ale oznacza też narodziny śmierci jako koniecznego składnika życia.

Śmierć komórkowa

Wszystkie zdrowe komórki somatyczne są śmiertelne. Za śmierć komórki odpowiadają telomery, które, oprócz ważnej funkcji zabezpieczającej chromosom przed uszkodzeniem podczas podziału, skracają się przy każdym podziale komórkowym. Telomer nie zawiera żadnych genów, nie koduje białek, jest to powtarzająca się (u człowieka 10 tysięcy razy w chwili zapłodnienia, potem telomer staje się coraz krótszy) sekwencja TTAGGG. Tylko komórki nieprawidłowe lub nowotworowe są nieśmiertelne ponieważ wykazują ekspresję enzymu telomerazy, który zapobiega skracaniu się telomerów. Telomeraza, enzym syntetyzujący telomerowe DNA, nie ulega ekspresji w większości ludzkich komórek somatycznych, jest za to aktywowana podczas podczas powstawania nowotworu. Wykazano też, że wstawienie podjednostki katalitycznej genu telomerazy do normalnych komórek powoduje ich unieśmiertelnienie.

Ryc. 1 Rodzaje śmierci komórkowej.
Źródło: http://www.e-biotechnologia.pl/artykuly/apoptoza

Telomer pełni rolę zegara biologicznego każdej komórki. Ponieważ telomer jest stabilizatorem chromosomu, jego brak oznacza śmierć komórki poprzez zatrzymanie cyklu komórkowego i niedopuszczeniu do replikacji uszkodzonego DNA. Jest to więc mechanizm zabezpieczający. Ze śmiercią komórkową wiąże się tzw. limit Hayflicka oznaczający liczbę podziałów komórkowych, zanim nastąpi apoptoza. Limit Hayflicka zależy od rodzaju komórki i organizmu, u człowieka wynosi około 50. Istnieje też dodatnia korelacja między liczbą pozostałych podziałów a długością telomerów. Tu ważna uwaga: nie dotyczy to komórek macierzystych, które mogą dzielić się bez ograniczeń; oraz oczywiście komórek nowotworowych. Im bliżej limitu Hayflicka, czyli im krótszy telomer, tym więcej objawów starzenia się komórki, a więc limit Hayflicka jest jedną z przyczyn starzenia się organizmu.


Ryc. 2 Komórka i jej materiał genetyczny.
Źródło shutterstock, licencja https://www.shutterstock.com/pl/license 

Czy jest o co walczyć?

Mechanizm śmierci komórkowej dotyczy wszystkich organizmów wielokomórkowych, a nieśmiertelność rozumiana jako życie wieczne w zdrowiu i pełnej sprawności jest niemożliwe. Za to przedłużanie średniej wieku oraz spowalnianie starzenia, jako zespołu objawów – jak najbardziej możliwe i osiągalne. Są gatunki zwierząt wykazujących się tzw. znikomym starzeniem się. Oznacza to, że organizmy te nie wykazują zauważalnej utraty cech umożliwiających przeżycie (siła fizyczna, jakość zmysłów, mobilność) oraz utraty zdolności rozrodczych. Należą do nich między innymi: rekin grenlandzki (400 lat), małż oceaniczny Quahog (507 lat).

Jest także gatunek, który możemy nazwać biologicznie nieśmiertelnym. Jest to hydra (stułbia) z rodzaju stułbiopławów, maleństwo wielkości 10 milimetrów. Komórki hydry są w zasadzie komórkami macierzystymi, odnawiającymi się w sposób porównywalny do ludzkich komórek macierzystych. Hydry były badane przez Daniela Martineza, biologa z Pomona College. Cykl życia zwierząt był analizowany poprzez obserwację utraty płodności w pewnym wieku oraz zwielokrotnienie śmiertelności. U hydr nie zaobserwowano procesu spadku płodności. Wniosek Martineza był zaskakujący: hydry są, jako organizmy, nieśmiertelne. Przypadek hydry jest też zadziwiający z innego powodu. Dotychczas uważano, że starzenie się jest naturalną konsekwencją wzrostu złożoności budowy organizmu. Jednokomórkowce są w pewnym sensie nieśmiertelne. Każdy podział to cofnięcie ich zegara biologicznego.

Ryc. 3 Hydra vulgaris (stułbia pospolita), badana przez Daniela Martineza
Źródło: David Plachetzki, University of California

Wyjaśnienie przypadku hydry nie musi zaprzeczać tym założeniom. Polscy naukowcy: dr Dańko, dr Schaible i prof. Jan Kozłowski z Uniwersytetu Jagiellońskiego na łamach „Journal of Theoretical Biology” opisali fenomen hydry w sposób nie łamiący kanonów biologii. Ich zdaniem uszkodzone komórki hydry są „skłaniane” do popełnienia komórkowego samobójstwa, a ich miejsce natychmiast zajmują nowe komórki powstałe z komórek macierzystych, które są w stanie zastąpić każdą komórkę somatyczną. Regeneracja hydry nie jest jednak typowym mechanizmem biologicznym. Jej komórki macierzyste nie są takie same, są zróżnicowane i wykonują także zadania typowe dla komórek somatycznych. Jest ich także bardzo dużo, co zapewnia ciągłe odnawianie organizmu.

Jednym z wniosków wynikających z badania stułbi (hydr) jest związek śmierci z rozmnażaniem płciowym. Stułbie z gatunku Hydra oligactis (stułbia szara) traciły „wieczną młodość” z chwilą przejścia z rozmnażania bezpłciowego na płciowe, znacznie bardziej energochłonne i wymagające odpowiedniej gospodarki energią. Ewolucja próbuje poradzić z tym problemem. Przykładem jest stułbiopław Turritopsis, który ma dwie fazy rozwojowe: polipa i meduzy. Polipy rozmnażają się bezpłciowo, więc nie następuje kumulacja degeneracji tkanek. Potomstwem polipa są meduzy o zróżnicowanych tkankach, rozmnażające się płciowo, a w związku z tym podatne na starzenie się i śmierć. Meduzy jednak nie umierają tylko „cofają się w rozwoju” do postaci polipa, odnawiając swoje tkanki. Taki cykl rozwojowy zapewnia Turritopsis wieczną młodość i nieśmiertelność.

Co z tą nieśmiertelnością? Będzie czy nie będzie?

Raczej nie będzie, ale starać się trzeba, cytując klasyka. Jednym z podstawowych motorów napędzających działania władców było pragnienie nieśmiertelności. Nieuchronność śmierci, losu zrównującego biedaków i bogaczy, zawsze była bodźcem do spekulacji i badań, od starożytności do dziś.

Warto zacytować Milana Kunderę, który potraktował temat zarazem poważnie i ironicznie („Nieśmiertelność”):
Wiesz, to naprawdę bardzo osobliwe. Bycie śmiertelnym jest najbardziej podstawowym ludzkim doświadczeniem, a jednak człowiek nigdy nie był w stanie tego zaakceptować, pojąć i odpowiednio się zachować. Człowiek nie wie, jak być śmiertelnym”

Jeszcze Pascal:
[…]ci… którzy uważają, że mężczyźni są nierozsądni, spędzając cały dzień na gonieniu zająca… nie znają naszej natury. Zając sam w sobie nie zasłoni nam widoku śmierci i nieszczęść; ale pościg, który odwraca naszą uwagę od nich, faktycznie nas zasłania.”

Już starożytni Egipcjanie… Egipcjanie uważali, że dusza jest nieśmiertelna, nawet w martwym ciele. Balsamowali więc ciała faraonów, wyposażali je w przedmioty codziennego użytku i składali w monumentalnych sarkofagach-piramidach.

Grecy także wierzyli w nieśmiertelną duszę. Sokrates (a także Platon) uważał duszę za istotę człowieczeństwa, rozumu, osobowości.

Wszystkie cywilizacje poszukiwały eliksiru nieśmiertelności.

Prace średniowiecznych uczonych skupiały się nie tyle na nieśmiertelności co na eliksirze wiecznej młodości. Kamień filozoficzny, oprócz zdolności przemiany ołowiu w złoto, miał też służyć do wytwarzania eliksiru życia (elixir vitae) zapewniającego nieśmiertelność i wieczną młodość każdemu, kto go wypije. Jako, że powstawała wtedy nauka o przemianach, powstające teorie łączyły przemiany chemiczne ze zmianami, jakie substancje te powodowały w organizmie człowieka.

Początki współczesnych badań nad nieśmiertelnością to krionika, czyli pomysł zamrażania organizmów w ciekłym azocie, w nadziei rozmrożenia w czasach, kiedy będzie to możliwe bez bezpowrotnego zniszczenia organizmu. Pierwszym odważnym (i bogatym) człowiekiem, który odważył się na zamrożenie był podobno Walt Disney, śmiertelnie chory na raka płuc. Jednak według wiarygodnych źródeł, Disney zmarł i został pochowany „klasycznie”, bez udziału krioniki. Pierwszym prawdziwym eksperymentem krionicznym było zamrożenie Jamesa Hirama Bedforda, też chorego na raka, w 1967 roku. Usługę krioprezerwacji (ładnie brzmi :)) wykonano dotychczas ok. 300 razy, a kolejka żyjących liczy parę tysięcy osób.

Czy zatem warto pracować nad nieśmiertelnością? Oczywiście, że warto. Chociażby dlatego, że po drodze możemy dokonać wielu odkryć, które umożliwią wydłużenie życia ciała człowieka do 120-130 lat, nawet w ciągu kilkudziesięciu najbliższych lat.

Najbardziej obiecujące kierunki badań to:

Wariant 1: człowiek-hydra
Sklonowanie ludzkich embrionów, przeprogramowanie i wszczepienie do organizmu człowieka mogłoby zapewnić ciągłą regenerację zużywających się organów złożonych z komórek somatycznych (starzejących się wskutek skracania telomerów).

Wariant 2: wyłączenie lub przeprogramowanie genów śmierci
Inżynieria genetyczna na tym poziomie to pieśń odległej przyszłości. Co prawda Robert Horvitz oraz Brytyjczycy Sydney Brenner i John Sulston otrzymali nagrodę Nobla w 2002 roku za prace nad genetyczną regulacją rozwoju organów oraz genami uczestniczącymi w programowanej śmierci komórek, ale…
Prace trwają. w 2012 John B. Gurdon, Shinya Yamanaka otrzymali Nobla za odkrycia dowodzące, że dojrzałe komórki mogą być przeprogramowane w macierzyste komórki pluripotentne.

Wariant 3: nanotechnologia
Postępy w nanotechnologii mogą spowodować, że nanoroboty mogą, po wprowadzeniu do krwiobiegu, naprawiać chore komórki lub likwidować komórki nowotworowe, przyczyniając się w ten sposób do przedłużenia życia.

Wariant 4: cyborgizacja
Cyborgi (od ang. cybernetic organism – organizm cybernetyczny) już istnieją. Bo czym innym jest człowiek z implantem rozrusznika serca jak nie połączeniem organizmu i maszyny? Albo wszczepiona pompa insulinowa u chorego na cukrzycę. Postęp w tej dziedzinie na pewno będzie się dokonywał coraz odważniej i nie tylko w celu podniesienia sprawności motorycznej ale także dla ratowania zdrowia i życia.

Na koniec chciałbym przypomnieć przepowiednię futurologa Raymonda Kurzweila, że do roku 2030 ludzie opanują nieśmiertelność. Brzmi odważnie, zwłaszcza, że mamy rok 2023 i w dalszym ciągu nie możemy sobie poradzić z bardziej przyziemnymi problemami, na przykład głodem i wojną, ale… Ten były inżynier Google i wizjoner trafnie przepowiedział upowszechnienie się laptopów i wygraną komputera IBM z mistrzem szachowym Garrim Kasparowem. Kurzweil przewiduje też, że do roku 2045 inteligencja ludzka zespoli się ze sztuczną inteligencją, powiększając zbiorowy potencjał intelektualny miliardkrotnie. Możemy te przewidywania traktować z przymrużeniem oka, ale pamiętajmy, że Ray Kurzweil przewidział też, że do roku 2010 ludzkość będzie miała powszechny i ciągły dostęp do szybkiego internetu. Sprawdzalność przewidywań Kurzweila (było ich w sumie 147) wynosi 86%, a to daje dużo do myślenia.

Źródła:

  1. L. Hayflick, “The illusion of cell immortality” https://www.nature.com/articles/6691296.pdf
  2. L. Hayflick “How and why we age” https://pubmed.ncbi.nlm.nih.gov/9951612/
  3. “Czy nieśmiertelność jest możliwa, czy starzenie się jest nieuniknione?” https://www.lifespan.io/news/is-immortality-possible/
  4. “Wieczna młodość jest możliwa” https://www.polityka.pl/tygodnikpolityka/nauka/1694598,1,wieczna-mlodosc-jest-mozliwa.read
  5. “Nieśmiertelność i strach przed śmiercią” https://www.nypl.org/blog/2016/02/04/immortality-fear-death
  6. “Intimations of Immortality” https://www.science.org/doi/10.1126/science.288.5463.59
  7. “Oszukać śmierć – historia, teraźniejszość i perspektywy krioniki” https://biotechnologia.pl/biotechnologia/oszukac-smierc-historia-terazniejszosc-i-perspektywy-krioniki,20771
  8. “Apoptoza” http://www.e-biotechnologia.pl/artykuly/apoptoza
  9. “Hail the Hydra, an Animal That May Be Immortal” https://www.livescience.com/53178-hydra-may-live-forever.html

Nie tylko K-202, czyli o Jacku Karpińskim

Jacka Karpińskiego przedstawiać nie trzeba, to konstruktor minikomputera K-202, o rewelacyjnych jak na swoje czasy parametrach technicznych. Był inżynierem-wizjonerem, niespokojną duszą, pełnym pomysłów geniuszem technicznym. Polskim Teslą.

Żołnierz batalionu “Zośka” Szarych Szeregów, w plutonie „Alek” (służył w jednym plutonie z Krzysztofem Kamilem Baczyńskim), uczestnik Powstania Warszawskiego, trzykrotnie odznaczony Krzyżem Walecznych.

Po studiach na Politechnice Warszawskiej, w 1951 roku podjął pracę w zakładach „Warel”, produkujących urządzenia elektroniczne na potrzeby wojska. Skonstruował tam automatyczny nadajnik krótkofalowy o mocy 2 kW NPK-2, używany do łączności z ambasadami.

AAH

Pierwszym samodzielnym dziełem Karpińskiego był AAH czyli Analogowy Analizator Harmonicznych. Po tą nazwą kryje się lampowe urządzenie do rozkładu dowolnych krzywych ciągłych na składowe harmoniczne, czyli znana wszystkim inżynierom transformata Fouriera. Krzywa ciągła jest przedstawiana jako superpozycja przebiegów sinusoidalnych o różnych częstotliwościach. Taką krzywą można analizować matematycznie (w tym statystycznie) dużo łatwiej niż skomplikowaną krzywą wyjściową. AAH został skonstruowany w 1957 roku w Instytucie Maszyn Matematycznych i Instytucie Podstawowych Problemów Techniki PAN (IPPT), gdzie Karpiński był adiunktem. Maszyna od razu znalazła zastosowanie w WIHM (Wojskowy Instytut Hydrologiczno-Meteorologiczny), w powołanym w 1956 roku Zakładzie Długoterminowych Prognoz Pogody, poprawiając dokładność prognoz o kilkanaście procent. Wartym odnotowania jest fakt, że było to pierwsze tego rodzaju urządzenie w Europie.

AAH umożliwiał tworzenie statystycznych modeli długoterminowych do przygotowania prognoz średniej miesięcznej temperatury powietrza i sumy opadów atmosferycznych dla Warszawy.

W 1965 roku w raporcie Światowej Organizacji Meteorologicznej (WMO) opublikowano artykuł „Statistical methods in long-range weather forecasting” (Statystyczne metody w długoterminowym prognozowaniu pogody) opisujący analizator AAH i prezentujący efekty jego pracy.

Analizator AAH był zbudowany z 650 lamp próżniowych, miał wymiary 2×1,5 metra. Nie był to oczywiście klasyczny komputer, ale, jak mówił sam Karpiński „zaawansowany procesor obliczeniowy”. Niestety, nie możemy go zobaczyć, uległ zniszczeniu w trakcie transportu.

Ryc. 1 Jacek Karpiński przy maszynie AAH (fot. Lucjan Fogiel)

AKAT-1

Drugim, równie przełomowym dziełem Jacka Karpińskiego był analogowy analizator równań różniczkowych. Analizator jako taki nie był pionierskim wynalazkiem, lampową wersję tego urządzenia ARR stworzył Leon Łukaszewicz już w 1954 roku, wielkości sporego pokoju. Karpiński wykorzystał tranzystory, a jego AKAT-1 sprawiał wrażenie współczesnej konsoli mikserskiej, a nie poważnego urządzenia do poważnych zastosowań. Przypomnijmy, że był rok 1959 (oficjalnie, bo według Karpińskiego AKAT-1 powstał w 1957). Co prawda pierwszy Sputnik już latał po niebie, ale, mikroelektronika była w powijakach, a tranzystor był zaledwie nowinką techniczną. Tu znowu dygresja. Pierwszymi polskimi germanowymi tranzystorami stopowymi były TC11–TC15, wyprodukowane w liczbie kilkunastu tysięcy egzemplarzy. Produkcja tranzystorów na większą skalę rozpoczęła się w 1960 roku. Były to serie TG1-TG5 i TG-70, a rok później TG10, TG20 i TG50. A więc Karpiński skonstruował AKAT-1 na bazie tranzystorów prototypowych, nieseryjnych. Seria tranzystorów TC11-TC15 została opracowana w oparciu o model tranzystora warstwowego TW w IPPT PAN kierowanym przez prof. Janusza Groszkowskiego, pioniera polskiej radioelektroniki. Groszkowski skonstruował pierwszy metalowy magnetron (lampę mikrofalową), który umożliwił Anglikom wykrywanie niemieckich samolotów, rozpracował też system sterowania rakiet V-2. Groszkowski był też kandydatem do nagrody Nobla za prace na temat generacji i stabilizacji częstotliwości.

Ryc. 2 Analizator Równań Różniczkowych AKAT-1. [Muzeum Techniki w Warszawie, Wikimedia Commons]

AKAT-1 był pierwszym na świecie komputerem biurkowym. Wzornictwo (Ryc. 2) robi wrażenie, prawda? Nic dziwnego, jest dziełem plastyków ze słynnego Zakładu Artystyczno-Badawczego Akademii Sztuk Pięknych w Warszawie. W tych czasach, a przypomnijmy, że były to lata pięćdziesiąte, komputery były kompleksem szaf, umieszczonych w ogromnych, klimatyzowanych pomieszczaniach. AKAT-1 przypominał normalny, współczesny komputer desktopowy z konsolą sterującą, ekranem i urządzeniem drukującym wyniki obliczeń. I jak tu nie napisać, że Jacek Karpiński był wizjonerem? AKAT-1, wyprodukowany w jednym egzemplarzu, zachował się i jest obecnie prezentowany w Muzeum Techniki w Warszawie (teraz: Narodowe Muzeum Techniki).

Tak w 1963 roku AKAT-1 był opisywany przez dziennikarza Marka Sadzewicza:
Przyciski oznaczone znakami matematycznymi, szklany ekran jak w telewizji, na ekranie pokazuje się układ współrzędnych i graficzny przebieg funkcji matematycznych. AKAT-1 był maszyną analogową, która wykonywała niezmiernie doniosłe zadanie: wiązała matematykę z rzeczywistością (…) Ogniste zygzaki na szklanym ekraniku mówią, że istnienie jest ruchem i że konkrety można wyobrazić w abstrakcji.”

AKAT-1 był przepustką dla młodego Karpińskiego do nagrody dla młodych talentów UNESCO (miał wtedy 33 lata). Został jednym z sześciu laureatów, którzy otrzymali roczne stypendium w wybranej uczelni. Jacek Karpiński wybrał Harvard, gdzie przez rok pracował w laboratorium zajmującym się badaniami nad sztuczną inteligencją. Przebywał też na MIT (Massachusets Institute of Technology), spotkał się z Johnem Eckertem – konstruktorem ENIAC-a oraz Edwardem Moorem – pionierem badań nad sztuczną inteligencją. Przypomnijmy jeszcze raz, był to początek lat sześćdziesiątych. Propozycje pracy w Stanach Zjednoczonych odrzucił, w tym ofertę pracy w Los Alamos. Tak o tym pisał w 2007 roku:

Przyjmowano mnie jak króla. Byłem tym zresztą bardzo onieśmielony. Miałem zaledwie trzydzieści kilka lat. Po studiach poprosiłem o możliwość odwiedzenia całej długiej listy firm i uczelni. UNESCO zgodziło się. W Caltechu witał mnie rektor ze wszystkimi dziekanami, w Dallas – burmistrz miasta. I wszyscy chcieli, żebym dla nich pracował, począwszy od IBM, a skończywszy na uniwersytecie w Berkeley. W San Francisco proponowano mi nawet stworzenie własnego instytutu“.

Uczciwość przekazu wymaga, aby wspomnieć o współpracy Karpińskiego z polskim wywiadem technologicznym.

Perceptron

Zafascynowanie sztuczną inteligencją szybko przyniosło owoce. Jacek Karpiński skonstruował perceptron. Była to sieć neuronowa, która potrafiła się uczyć. Perceptron Karpińskiego był drugim tego typu urządzeniem na świecie.

Perceptron to najprostsza sieć neuronowa, składająca się z jednego lub więcej niezależnych neuronów McCullocha-Pittsa. Urządzenie implementuje algorytm uczenia maszynowego nadzorowanego. Umożliwia klasyfikowanie parametrów wejściowych do jednej lub więcej klas, po uprzednim wytrenowaniu algorytmu na zbiorach testowych. To podstawy współczesnego uczenia maszynowego (ML).

Perceptron opracowany przez Jacka Karpińskiego w Pracowni Sztucznej Inteligencji Instytutu Automatyki PAN składał się z dwóch tysięcy tranzystorów i potrafił rozpoznawać obrazy otoczenia przekazywane przez dołączoną kamerę. Projekt perceptronu został niestety utrącony przez władze Instytutu z nieznanych powodów, a Karpiński odszedł z IA PAN.

KAR-65 i analizator zderzeń cząstek elementarnych

Jacek Karpiński przeniósł się więc do Instytutu Fizyki Doświadczalnej Uniwersytetu Warszawskiego i zajął się (nareszcie!) konstruowaniem komputerów cyfrowych. Jego pierwsze dzieło to KAR-65, wykonujący 100 tysięcy operacji zmiennoprzecinkowych na sekundę (był rok 1965!). Był to komputer asynchroniczny (nie posiadał zegara), wielokrotnie szybszy i tańszy od królujących wtedy w Polsce komputerów ODRA. A Karpiński nie byłby Karpińskim, gdyby nie znalazł dla niego zastosowania. Zastosowaniem komputera KAR-65 była analiza zdjęć zderzeń cząstek elementarnych. Profesor Jerzy Pniewski, współodkrywca hiperjądra, wybitny fizyk, był kierownikiem Katedry Cząstek Elementarnych w Instytucie Fizyki Doświadczalnej, jedynej instytucji w bloku wschodnim, która współpracowała z CERN. W ramach współpracy Instytut otrzymywał wielkie ilości zdjęć i danych obrazujących zderzenia cząstek elementarnych. Komputery ODRA nie nadawały się do ich analizy, były po prostu zbyt wolne. Stąd propozycja złożona Karpińskiemu i jego niesamowita konstrukcja KAR-65.

Ryc. 3 Jacek Karpiński przy konsoli komputera KAR-65 (źródło epcenter.com.pl)

Projekt i konstrukcja komputera trwały 3 lata. Do budowy wykorzystano polskie tranzystory TG40 i diody DOG-61 w ilości 65 tysięcy. Posiadał pamięć bębnową i system operacyjny opracowany przez samego Karpińskiego (był też programistą). Gabaryty KAR-65 były niewielkie: dwie szafki o wymiarach 1,7×1,4×0,4 metra, interfejs mieszczący się na biurku (Ryc. 3). Autorem projektu plastycznego był Stanisław Tomaszewski, współpracujący wcześniej z Jackiem Karpińskim przy maszynie AKAT-1. Prezentacja komputera odbyła się w 1968 roku w Zakopanem. Niestety, z przyczyn obiektywnych (brak dostępu do zachodnich podzespołów i technologii) urządzenie nie odniosło sukcesu komercyjnego. Zakłady „TEWA”, jedyny w Polsce producent zaawansowanych komponentów elektronicznych, “nie wyrabiały” z zamówieniami. To jednak była głęboka komuna, RWPG, priorytety, wojsko, zimna wojna. Krótko mówiąc, skończyło się na prototypie pracującym dla profesora Pniewskiego.

I co z tym K-202?

Wynalazki Jacka Karpińskiego były preludium, fazą przygotowawczą do dzieła jego życia – minikomputera K-202. Była to też porażka jego życia. Wyprodukowano zaledwie 30 sztuk. Dlaczego? Przyczyn było wiele, obiektywnych i ludzkich, różnych. Nie ma sensu wnikać. Warto tylko zacytować jednego z ówczesnych decydentów: „gdyby dało się stworzyć komputer wielkości walizki… już dawno zrobiliby to Amerykanie”. Komputer Karpińskiego nie miał praktycznie konkurencji pod względem gabarytów, osiągów i elastyczności konfiguracji, a porównywalne komputery PDP-11 firmy DEC Corp. były dużo większe. Miały za to zaplecze finansowe, technologiczne, informatyczne i marketingowe. Co z tego, że K-202 miał potencjał, ale to PDP-11 podbiły świat, a w tzw. demoludach produkowano nawet jego klony, oczywiście bez żadnej licencji, gdyż Polska była objęta embargiem COCOM. W Polsce były to maszyny MERA-60 produkowane przez Meraster w Katowicach. Smutne, że łatwiej (i taniej) było ukraść technologię wraz z oprogramowaniem systemowym i sklonować popularny sprzęt zachodni niż rozwijać własne, często lepsze, konstrukcje. Kradzieże technologii zachodnich były normą w krajach “demokracji ludowej”, były wręcz filarem rozwoju technologicznego. Zainteresowanych tematem odsyłam do opracowania Piotra R. Frankowskiego Wspólnota czerwieni na niniejszym blogu.

Ryc. 4 Jacek Karpiński prezentuje genialny, jak na owe czasy, komputer K-202 podczas targów Olimpia w Londynie (1971). Fot. Muzeum Techniki w Warszawie

K-202 był bezpośrednim przodkiem popularnego, zwłaszcza w ośrodkach akademickich, mikrokomputera MERA-400, jak na tamte czasy demona szybkości, z nowoczesnym systemem operacyjnym SOM-3 lub uniksopodobnym CROOK, szybkim kompilatorem Fortranu, pamięcią operacyjną 64k słów 16-bitowych i pamięcią dyskową (całe 2 megabajty).

Produkcji komputera K-202 zaprzestano przede wszystkim z przyczyn finansowych. Wszystkie podzespoły musiały być sprowadzane za dewizy z Anglii, a produkcja serii pilotażowej pochłonęła 3 miliony dolarów. Zjednoczenie MERA odmówiło finansowania, a Karpiński odmówił kontynuacji prac w oparciu o polskie podzespoły. Pozostał projekt i zespół pod kierownictwem głównego konstruktora Elżbiety Jezierskiej-Ziemkiewicz. To dzięki jej uporowi wrócono do projektu, zamieniając wszystkie podzespoły na polskie, włącznie z monitorami, drukarkami i jednostkami pamięci. Oraz, oczywiście, nowym oprogramowaniem. Produkcję powierzono zakładom ERA w Warszawie (później zmieniły nazwę na MERA). Ponieważ MERA już produkowała komputer MERA-300, nowy produkt nazwano MERA-400. Komputer MERA-400 był produkowany w latach 1976-1987, pracował we wszystkich polskich uczelniach, a z uwagi na wielozadaniowość i szybkość znalazł wiele zastosowań przemysłowych, między innymi do kontroli procesów technologicznych.

Na MERZE-400 tworzyłem swoją pracę magisterską – język symulacyjny do symulacji układów dynamicznych ciągłych – to taki rozwiązywacz/całkowacz układów równań różniczkowych. Trochę jak AKAT-1 Karpińskiego, ale w wersji cyfrowej, programowalnej. Powiem Wam, fajny był ten komputer.

Ryc. 5 MERA-400 (źródło: https://www.zabytki-techniki.org.pl/index.php/muzeum-sil-powietrznych-w-deblinie-wirtualny/172-elektronika/1162-mikrokomputer-mera-400)

Ciekawostka, specjalnie na potrzeby komputera MERA-400 napisano język programowania LOGLAN, wzorowany na języku Simula 67, pierwszym języku obiektowym. LOGLAN, jak wiele innych genialnych dzieł polskiej myśli technologicznej, został zapomniany, zespół rozpadł się, a jego twórcy porozjeżdżali się po całym świecie, robiąc kariery naukowe.

Dokończenie historii, jakże symbolicznej…

Jacek Karpiński popadł w niełaskę władz. W dramatycznych okolicznościach stracił pracę w zakładach MERA. Niepisany “wilczy bilet” zakazywał mu pracy w dziedzinie, w której był najlepszy. Wyjechał na Warmię, hodował drób i świnie. Po 1980 roku, mimo zmian politycznych nadal był na cenzurowanym, władze nie zgodziły się na objęcie przez niego kierowniczego stanowiska w Instytucie Maszyn Matematycznych. Wyjechał więc do Szwajcarii, gdzie pracował u Stefana Kudelskiego, producenta profesjonalnych magnetofonów NAGRA. Zaprojektował skaner ręczny Pen-Reader z funkcją optycznego rozpoznawania tekstu (OCR), który jednak nie przyjął się na rynku. Do Polski wrócił w 1990 roku, zostając doradcą w dziedzinie informatyki Leszka Balcerowicza i Andrzeja Olechowskiego. Zmarł 21 lutego 2010 we Wrocławiu.

Źródła:

  1. https://www.blog-wajkomp.pl/przesladowany-geniusz-o-ciekawym-zyciu-jacek-karpinski-aah/
  2. https://obserwator.imgw.pl/polska-na-mapie-historii-prognoz-dlugoterminowych/
  3. http://www.sztuka.net/palio/html.run?_Instance=sztuka&_PageID=855&_cms=newser&newsId=13485&callingPageId=854&_CheckSum=-1043189960
  4. http://digitalheritage.pl/2022/12/04/akat-1/
  5. https://www.rp.pl/nowe-technologie/art2792031-jacek-karpinski-komputerowy-prorok-skonczylby-90-lat
  6. https://www.blog-wajkomp.pl/polskie-komputery-okresu-prl-u-system-mera-400/
    oraz Wikipedia