Nie tylko K-202, czyli o Jacku Karpińskim

Jacka Karpińskiego przedstawiać nie trzeba, to konstruktor minikomputera K-202, o rewelacyjnych jak na swoje czasy parametrach technicznych. Był inżynierem-wizjonerem, niespokojną duszą, pełnym pomysłów geniuszem technicznym. Polskim Teslą.

Żołnierz batalionu “Zośka” Szarych Szeregów, w plutonie „Alek” (służył w jednym plutonie z Krzysztofem Kamilem Baczyńskim), uczestnik Powstania Warszawskiego, trzykrotnie odznaczony Krzyżem Walecznych.

Po studiach na Politechnice Warszawskiej, w 1951 roku podjął pracę w zakładach „Warel”, produkujących urządzenia elektroniczne na potrzeby wojska. Skonstruował tam automatyczny nadajnik krótkofalowy o mocy 2 kW NPK-2, używany do łączności z ambasadami.

AAH

Pierwszym samodzielnym dziełem Karpińskiego był AAH czyli Analogowy Analizator Harmonicznych. Po tą nazwą kryje się lampowe urządzenie do rozkładu dowolnych krzywych ciągłych na składowe harmoniczne, czyli znana wszystkim inżynierom transformata Fouriera. Krzywa ciągła jest przedstawiana jako superpozycja przebiegów sinusoidalnych o różnych częstotliwościach. Taką krzywą można analizować matematycznie (w tym statystycznie) dużo łatwiej niż skomplikowaną krzywą wyjściową. AAH został skonstruowany w 1957 roku w Instytucie Maszyn Matematycznych i Instytucie Podstawowych Problemów Techniki PAN (IPPT), gdzie Karpiński był adiunktem. Maszyna od razu znalazła zastosowanie w WIHM (Wojskowy Instytut Hydrologiczno-Meteorologiczny), w powołanym w 1956 roku Zakładzie Długoterminowych Prognoz Pogody, poprawiając dokładność prognoz o kilkanaście procent. Wartym odnotowania jest fakt, że było to pierwsze tego rodzaju urządzenie w Europie.

AAH umożliwiał tworzenie statystycznych modeli długoterminowych do przygotowania prognoz średniej miesięcznej temperatury powietrza i sumy opadów atmosferycznych dla Warszawy.

W 1965 roku w raporcie Światowej Organizacji Meteorologicznej (WMO) opublikowano artykuł „Statistical methods in long-range weather forecasting” (Statystyczne metody w długoterminowym prognozowaniu pogody) opisujący analizator AAH i prezentujący efekty jego pracy.

Analizator AAH był zbudowany z 650 lamp próżniowych, miał wymiary 2×1,5 metra. Nie był to oczywiście klasyczny komputer, ale, jak mówił sam Karpiński „zaawansowany procesor obliczeniowy”. Niestety, nie możemy go zobaczyć, uległ zniszczeniu w trakcie transportu.

Ryc. 1 Jacek Karpiński przy maszynie AAH (fot. Lucjan Fogiel)

AKAT-1

Drugim, równie przełomowym dziełem Jacka Karpińskiego był analogowy analizator równań różniczkowych. Analizator jako taki nie był pionierskim wynalazkiem, lampową wersję tego urządzenia ARR stworzył Leon Łukaszewicz już w 1954 roku, wielkości sporego pokoju. Karpiński wykorzystał tranzystory, a jego AKAT-1 sprawiał wrażenie współczesnej konsoli mikserskiej, a nie poważnego urządzenia do poważnych zastosowań. Przypomnijmy, że był rok 1959 (oficjalnie, bo według Karpińskiego AKAT-1 powstał w 1957). Co prawda pierwszy Sputnik już latał po niebie, ale, mikroelektronika była w powijakach, a tranzystor był zaledwie nowinką techniczną. Tu znowu dygresja. Pierwszymi polskimi germanowymi tranzystorami stopowymi były TC11–TC15, wyprodukowane w liczbie kilkunastu tysięcy egzemplarzy. Produkcja tranzystorów na większą skalę rozpoczęła się w 1960 roku. Były to serie TG1-TG5 i TG-70, a rok później TG10, TG20 i TG50. A więc Karpiński skonstruował AKAT-1 na bazie tranzystorów prototypowych, nieseryjnych. Seria tranzystorów TC11-TC15 została opracowana w oparciu o model tranzystora warstwowego TW w IPPT PAN kierowanym przez prof. Janusza Groszkowskiego, pioniera polskiej radioelektroniki. Groszkowski skonstruował pierwszy metalowy magnetron (lampę mikrofalową), który umożliwił Anglikom wykrywanie niemieckich samolotów, rozpracował też system sterowania rakiet V-2. Groszkowski był też kandydatem do nagrody Nobla za prace na temat generacji i stabilizacji częstotliwości.

Ryc. 2 Analizator Równań Różniczkowych AKAT-1. [Muzeum Techniki w Warszawie, Wikimedia Commons]

AKAT-1 był pierwszym na świecie komputerem biurkowym. Wzornictwo (Ryc. 2) robi wrażenie, prawda? Nic dziwnego, jest dziełem plastyków ze słynnego Zakładu Artystyczno-Badawczego Akademii Sztuk Pięknych w Warszawie. W tych czasach, a przypomnijmy, że były to lata pięćdziesiąte, komputery były kompleksem szaf, umieszczonych w ogromnych, klimatyzowanych pomieszczaniach. AKAT-1 przypominał normalny, współczesny komputer desktopowy z konsolą sterującą, ekranem i urządzeniem drukującym wyniki obliczeń. I jak tu nie napisać, że Jacek Karpiński był wizjonerem? AKAT-1, wyprodukowany w jednym egzemplarzu, zachował się i jest obecnie prezentowany w Muzeum Techniki w Warszawie (teraz: Narodowe Muzeum Techniki).

Tak w 1963 roku AKAT-1 był opisywany przez dziennikarza Marka Sadzewicza:
Przyciski oznaczone znakami matematycznymi, szklany ekran jak w telewizji, na ekranie pokazuje się układ współrzędnych i graficzny przebieg funkcji matematycznych. AKAT-1 był maszyną analogową, która wykonywała niezmiernie doniosłe zadanie: wiązała matematykę z rzeczywistością (…) Ogniste zygzaki na szklanym ekraniku mówią, że istnienie jest ruchem i że konkrety można wyobrazić w abstrakcji.”

AKAT-1 był przepustką dla młodego Karpińskiego do nagrody dla młodych talentów UNESCO (miał wtedy 33 lata). Został jednym z sześciu laureatów, którzy otrzymali roczne stypendium w wybranej uczelni. Jacek Karpiński wybrał Harvard, gdzie przez rok pracował w laboratorium zajmującym się badaniami nad sztuczną inteligencją. Przebywał też na MIT (Massachusets Institute of Technology), spotkał się z Johnem Eckertem – konstruktorem ENIAC-a oraz Edwardem Moorem – pionierem badań nad sztuczną inteligencją. Przypomnijmy jeszcze raz, był to początek lat sześćdziesiątych. Propozycje pracy w Stanach Zjednoczonych odrzucił, w tym ofertę pracy w Los Alamos. Tak o tym pisał w 2007 roku:

Przyjmowano mnie jak króla. Byłem tym zresztą bardzo onieśmielony. Miałem zaledwie trzydzieści kilka lat. Po studiach poprosiłem o możliwość odwiedzenia całej długiej listy firm i uczelni. UNESCO zgodziło się. W Caltechu witał mnie rektor ze wszystkimi dziekanami, w Dallas – burmistrz miasta. I wszyscy chcieli, żebym dla nich pracował, począwszy od IBM, a skończywszy na uniwersytecie w Berkeley. W San Francisco proponowano mi nawet stworzenie własnego instytutu“.

Uczciwość przekazu wymaga, aby wspomnieć o współpracy Karpińskiego z polskim wywiadem technologicznym.

Perceptron

Zafascynowanie sztuczną inteligencją szybko przyniosło owoce. Jacek Karpiński skonstruował perceptron. Była to sieć neuronowa, która potrafiła się uczyć. Perceptron Karpińskiego był drugim tego typu urządzeniem na świecie.

Perceptron to najprostsza sieć neuronowa, składająca się z jednego lub więcej niezależnych neuronów McCullocha-Pittsa. Urządzenie implementuje algorytm uczenia maszynowego nadzorowanego. Umożliwia klasyfikowanie parametrów wejściowych do jednej lub więcej klas, po uprzednim wytrenowaniu algorytmu na zbiorach testowych. To podstawy współczesnego uczenia maszynowego (ML).

Perceptron opracowany przez Jacka Karpińskiego w Pracowni Sztucznej Inteligencji Instytutu Automatyki PAN składał się z dwóch tysięcy tranzystorów i potrafił rozpoznawać obrazy otoczenia przekazywane przez dołączoną kamerę. Projekt perceptronu został niestety utrącony przez władze Instytutu z nieznanych powodów, a Karpiński odszedł z IA PAN.

KAR-65 i analizator zderzeń cząstek elementarnych

Jacek Karpiński przeniósł się więc do Instytutu Fizyki Doświadczalnej Uniwersytetu Warszawskiego i zajął się (nareszcie!) konstruowaniem komputerów cyfrowych. Jego pierwsze dzieło to KAR-65, wykonujący 100 tysięcy operacji zmiennoprzecinkowych na sekundę (był rok 1965!). Był to komputer asynchroniczny (nie posiadał zegara), wielokrotnie szybszy i tańszy od królujących wtedy w Polsce komputerów ODRA. A Karpiński nie byłby Karpińskim, gdyby nie znalazł dla niego zastosowania. Zastosowaniem komputera KAR-65 była analiza zdjęć zderzeń cząstek elementarnych. Profesor Jerzy Pniewski, współodkrywca hiperjądra, wybitny fizyk, był kierownikiem Katedry Cząstek Elementarnych w Instytucie Fizyki Doświadczalnej, jedynej instytucji w bloku wschodnim, która współpracowała z CERN. W ramach współpracy Instytut otrzymywał wielkie ilości zdjęć i danych obrazujących zderzenia cząstek elementarnych. Komputery ODRA nie nadawały się do ich analizy, były po prostu zbyt wolne. Stąd propozycja złożona Karpińskiemu i jego niesamowita konstrukcja KAR-65.

Ryc. 3 Jacek Karpiński przy konsoli komputera KAR-65 (źródło epcenter.com.pl)

Projekt i konstrukcja komputera trwały 3 lata. Do budowy wykorzystano polskie tranzystory TG40 i diody DOG-61 w ilości 65 tysięcy. Posiadał pamięć bębnową i system operacyjny opracowany przez samego Karpińskiego (był też programistą). Gabaryty KAR-65 były niewielkie: dwie szafki o wymiarach 1,7×1,4×0,4 metra, interfejs mieszczący się na biurku (Ryc. 3). Autorem projektu plastycznego był Stanisław Tomaszewski, współpracujący wcześniej z Jackiem Karpińskim przy maszynie AKAT-1. Prezentacja komputera odbyła się w 1968 roku w Zakopanem. Niestety, z przyczyn obiektywnych (brak dostępu do zachodnich podzespołów i technologii) urządzenie nie odniosło sukcesu komercyjnego. Zakłady „TEWA”, jedyny w Polsce producent zaawansowanych komponentów elektronicznych, “nie wyrabiały” z zamówieniami. To jednak była głęboka komuna, RWPG, priorytety, wojsko, zimna wojna. Krótko mówiąc, skończyło się na prototypie pracującym dla profesora Pniewskiego.

I co z tym K-202?

Wynalazki Jacka Karpińskiego były preludium, fazą przygotowawczą do dzieła jego życia – minikomputera K-202. Była to też porażka jego życia. Wyprodukowano zaledwie 30 sztuk. Dlaczego? Przyczyn było wiele, obiektywnych i ludzkich, różnych. Nie ma sensu wnikać. Warto tylko zacytować jednego z ówczesnych decydentów: „gdyby dało się stworzyć komputer wielkości walizki… już dawno zrobiliby to Amerykanie”. Komputer Karpińskiego nie miał praktycznie konkurencji pod względem gabarytów, osiągów i elastyczności konfiguracji, a porównywalne komputery PDP-11 firmy DEC Corp. były dużo większe. Miały za to zaplecze finansowe, technologiczne, informatyczne i marketingowe. Co z tego, że K-202 miał potencjał, ale to PDP-11 podbiły świat, a w tzw. demoludach produkowano nawet jego klony, oczywiście bez żadnej licencji, gdyż Polska była objęta embargiem COCOM. W Polsce były to maszyny MERA-60 produkowane przez Meraster w Katowicach. Smutne, że łatwiej (i taniej) było ukraść technologię wraz z oprogramowaniem systemowym i sklonować popularny sprzęt zachodni niż rozwijać własne, często lepsze, konstrukcje. Kradzieże technologii zachodnich były normą w krajach “demokracji ludowej”, były wręcz filarem rozwoju technologicznego. Zainteresowanych tematem odsyłam do opracowania Piotra R. Frankowskiego Wspólnota czerwieni na niniejszym blogu.

Ryc. 4 Jacek Karpiński prezentuje genialny, jak na owe czasy, komputer K-202 podczas targów Olimpia w Londynie (1971). Fot. Muzeum Techniki w Warszawie

K-202 był bezpośrednim przodkiem popularnego, zwłaszcza w ośrodkach akademickich, mikrokomputera MERA-400, jak na tamte czasy demona szybkości, z nowoczesnym systemem operacyjnym SOM-3 lub uniksopodobnym CROOK, szybkim kompilatorem Fortranu, pamięcią operacyjną 64k słów 16-bitowych i pamięcią dyskową (całe 2 megabajty).

Produkcji komputera K-202 zaprzestano przede wszystkim z przyczyn finansowych. Wszystkie podzespoły musiały być sprowadzane za dewizy z Anglii, a produkcja serii pilotażowej pochłonęła 3 miliony dolarów. Zjednoczenie MERA odmówiło finansowania, a Karpiński odmówił kontynuacji prac w oparciu o polskie podzespoły. Pozostał projekt i zespół pod kierownictwem głównego konstruktora Elżbiety Jezierskiej-Ziemkiewicz. To dzięki jej uporowi wrócono do projektu, zamieniając wszystkie podzespoły na polskie, włącznie z monitorami, drukarkami i jednostkami pamięci. Oraz, oczywiście, nowym oprogramowaniem. Produkcję powierzono zakładom ERA w Warszawie (później zmieniły nazwę na MERA). Ponieważ MERA już produkowała komputer MERA-300, nowy produkt nazwano MERA-400. Komputer MERA-400 był produkowany w latach 1976-1987, pracował we wszystkich polskich uczelniach, a z uwagi na wielozadaniowość i szybkość znalazł wiele zastosowań przemysłowych, między innymi do kontroli procesów technologicznych.

Na MERZE-400 tworzyłem swoją pracę magisterską – język symulacyjny do symulacji układów dynamicznych ciągłych – to taki rozwiązywacz/całkowacz układów równań różniczkowych. Trochę jak AKAT-1 Karpińskiego, ale w wersji cyfrowej, programowalnej. Powiem Wam, fajny był ten komputer.

Ryc. 5 MERA-400 (źródło: https://www.zabytki-techniki.org.pl/index.php/muzeum-sil-powietrznych-w-deblinie-wirtualny/172-elektronika/1162-mikrokomputer-mera-400)

Ciekawostka, specjalnie na potrzeby komputera MERA-400 napisano język programowania LOGLAN, wzorowany na języku Simula 67, pierwszym języku obiektowym. LOGLAN, jak wiele innych genialnych dzieł polskiej myśli technologicznej, został zapomniany, zespół rozpadł się, a jego twórcy porozjeżdżali się po całym świecie, robiąc kariery naukowe.

Dokończenie historii, jakże symbolicznej…

Jacek Karpiński popadł w niełaskę władz. W dramatycznych okolicznościach stracił pracę w zakładach MERA. Niepisany “wilczy bilet” zakazywał mu pracy w dziedzinie, w której był najlepszy. Wyjechał na Warmię, hodował drób i świnie. Po 1980 roku, mimo zmian politycznych nadal był na cenzurowanym, władze nie zgodziły się na objęcie przez niego kierowniczego stanowiska w Instytucie Maszyn Matematycznych. Wyjechał więc do Szwajcarii, gdzie pracował u Stefana Kudelskiego, producenta profesjonalnych magnetofonów NAGRA. Zaprojektował skaner ręczny Pen-Reader z funkcją optycznego rozpoznawania tekstu (OCR), który jednak nie przyjął się na rynku. Do Polski wrócił w 1990 roku, zostając doradcą w dziedzinie informatyki Leszka Balcerowicza i Andrzeja Olechowskiego. Zmarł 21 lutego 2010 we Wrocławiu.

Źródła:

  1. https://www.blog-wajkomp.pl/przesladowany-geniusz-o-ciekawym-zyciu-jacek-karpinski-aah/
  2. https://obserwator.imgw.pl/polska-na-mapie-historii-prognoz-dlugoterminowych/
  3. http://www.sztuka.net/palio/html.run?_Instance=sztuka&_PageID=855&_cms=newser&newsId=13485&callingPageId=854&_CheckSum=-1043189960
  4. http://digitalheritage.pl/2022/12/04/akat-1/
  5. https://www.rp.pl/nowe-technologie/art2792031-jacek-karpinski-komputerowy-prorok-skonczylby-90-lat
  6. https://www.blog-wajkomp.pl/polskie-komputery-okresu-prl-u-system-mera-400/
    oraz Wikipedia

Splątanie kwantowe, czyli coś, co działa, ale nie wiadomo dlaczego

Czy fizyka jest nudna? Dla większości jest nudna, bo co jest ciekawego w równi pochyłej albo w prawie Archimedesa? Istnieją jednak dziedziny fizyki, które budzą szczególne zainteresowanie. Dotyczy to szczególnie zagadnień z pogranicza science-fiction, a wręcz zaprzeczających zdrowemu rozsądkowi: teoria względności, teoria kwantów, rozszczepienie atomu, nadprzewodnictwo czy fuzja jądrowa. Ostatnio na medialnym topie znalazło się splątanie kwantowe, wyróżnione (jeśli można tak powiedzieć o dziedzinie nauki) Nagrodą Nobla z fizyki za 2022 rok. Otrzymał ją profesor Anton Zeilinger [2], austriacki fizyk-teoretyk z Uniwersytetu Wiedeńskiego (na spółkę z Alainem Aspectem i Johnem F. Clauserem). Profesor Zeilinger jest doktorem honoris causa Uniwersytetu Gdańskiego. On i drugi z noblistów – Alain Aspect od lat współpracują z Międzynarodowym Centrum Teorii Technologii Kwantowych Uniwersytetu Gdańskiego.

Ryc. 1 Profesor Anton Zeilinger. Źródło: Austriacka Akademia Nauk

Czym jest splątanie kwantowe?

Najprościej można powiedzieć, że jeśli dwa obiekty kwantowe, na przykład atomy, po uprzednim schłodzeniu i przygotowaniu w odpowiednich stanach kwantowych, “zetkniemy” ze sobą w pewien szczególny sposób, pozwalając oddziaływać im elektromagnetycznie, poprzez wymianę fotonów lub pól kwantowych, a następnie rozdzielimy, to stają się jednym obiektem kwantowym, a wartość pomiaru wielkości kwantowej jednej cząstki jest ściśle skorelowana z wartością tej wielkości drugiej cząstki, niezależnie od dzielącej je odległości tak, aby stan układu (superpozycja) pozostał bez zmian.

Splątanie fotonów można uzyskać za pomocą kryształów nieliniowych (Ryc. 2). Wpuszczając do takiego kryształu jeden foton możemy uzyskać dwa fotony splątane, drgające w prostopadłych do siebie płaszczyznach. Następnie, za pomocą światłowodu, możemy oddalić te fotony na znaczną odległość i przeprowadzić pomiar.

“Niezależnie” rzeczywiście oznacza “niezależnie”, bo odległości mogą być kosmiczne a ich wpływ na efekt splątania – żaden. Mierząc stan cząstki, która mamy pod ręką “mierzymy”, natychmiast i zdalnie, stan cząstki praktycznie nieskończenie odległej. Czy to oznacza, że możemy przenosić informację z prędkością większą od prędkości światła? Niestety nie, tu nadal obowiązuje zasada wynikająca z równań Einsteina, że prędkość światła jest największą prędkością, jaką może osiągnąć materia lub energia. Obala to mit, że tą metodą możemy transmitować informację z nieskończoną prędkością. Można natomiast powiedzieć, że dokonujemy w pewnym sensie teleportacji informacji. Odczytując stan jednej cząstki po prostu wiemy, jaki jest stan drugiej cząstki. Na przykład para splątanych fotonów ma przeciwne polaryzacje. Przed dokonaniem pomiaru każdy foton jest w nieoznaczonym stanie kwantowym, zgodnie z zasadą nieoznaczoności Heisenberga. Przed pomiarem znamy stan całego układu (przeciwne polaryzacje fotonów), nie znając stanów składników tego układu (który foton drga w polaryzacji poziomej H, a który w pionowej V?). Układ ten jest jednym obiektem kwantowym. Dopiero sam fakt pomiaru pierwszego fotonu determinuje stan drugiego fotonu. Mówiąc inaczej, generując strumień par niesplątanych fotonów, wysyłając każdy foton z pary do innego obserwatora (A i B) i mierząc parami ich polaryzację otrzymamy zgodność polaryzacji fotonów A i B w 50% przypadków, co jest wynikiem intuicyjnie przewidywalnym. Jeśli natomiast fotony w każdej parze będą przed wysłaniem splątane, to korelacja będzie stuprocentowa.

Splątane fotony przed odczytem ich wartości splątania znajdują się w stanie tzw. superpozycji kwantowej, to znaczy, że posiadają jednocześnie wszystkie stany możliwe do odczytania. Przyjmując, że polaryzacja H oznacza 0 (zero), a polaryzacja V oznacza 1, splątane fotony mają jednocześnie wartość 0 i 1. Dopiero sam akt odczytu (jednego fotonu) determinuje ostatecznie wartości polaryzacji obu fotonów.

Pierwsze doświadczenia splątania kwantowego przeprowadzono w 1972 roku, a w 1998 zespół Nicolasa Gisina z Genewy wytworzył i utrzymał splątanie pary fotonów po przesłaniu na odległość 10 km. Wspomniany wcześniej Anton Zeilinger utrzymał splątanie fotonów odległych o 144 kilometry. Obecnie splątanie realizuje się na odległości liczone w tysiącach kilometrów, między Ziemią a wyspecjalizowanymi satelitami. O tym będzie później, przy okazji opisu kwantowej dystrybucji klucza szyfrującego (QKD).

Idea splątania kwantowego doprowadziła grupę włoskich fizyków z turyńskiego Narodowego Instytutu Badań Meteorologicznych (INRiM) do wniosku, że czas jest złudzeniem i zaczyna biec dopiero po interakcji obserwatora z (umownym) zegarem. Jest to wniosek filozoficzny, niepoparty dowodem matematycznym, a tym bardziej doświadczeniem, ale należy przyznać, że jego piękno jest niezaprzeczalne.

Trochę historii

Wszystko zaczęło się od Alberta Einsteina. W 1935 roku opublikował on, wspólnie z Borysem Podolskim i Nathanem Rosenem pracę mającą dowieść, że mechanika kwantowa nie jest teorią kompletną. Powszechnie bowiem wiadomo, że Einstein był wrogiem teorii kwantowej, a szczególnie jej interpretacji probabilistycznej. Mawiał nawet, że “Bóg nie gra w kości”. W wyniku przeprowadzonego eksperymentu myślowego zwanego paradoksem EPR (Einsteina-Podolskiego-Rosena) pokazano na gruncie matematycznym mechaniki kwantowej, że w pewnych sytuacjach cząstki kwantowe powinny natychmiast reagować na zmianę stanu swojego splątanego partnera, nawet jeśli ten znajduje się w dowolnie dużej odległości. Przeczyłoby to aksjomatowi, że informacja nie może być przekazywana z prędkością większą od prędkości światła. „Księżyc istnieje także wtedy, gdy na niego nie patrzę”, mawiał Einstein i nazwał splątanie „upiornym oddziaływaniem na odległość”. Inny fizyk teoretyczny, jeden z ojców-założycieli mechaniki kwantowej, Erwin Schrödinger (ten od kota), zainspirowany eksperymentem myślowym EPR, jako pierwszy wprowadził termin „splątanie” i stwierdził, że wiedza o układzie fizycznym (na przykład dwa splątane fotony) nie oznacza wiedzy o jego częściach (poszczególnych fotonach). Było to prorocze spostrzeżenie, docenione dopiero pod koniec XX wieku.

Ryc. 2 Ilustracja splątania fotonów po przejściu przez kryształ o nieliniowej charakterystyce.
(Wikimedia Commons/J-Wiki [GNU Free Documentation License – domena publiczna])

Natura splątania kwantowego

Naturę splątania kwantowego próbował wyjaśnić Einstein, wprowadzając pojęcie zmiennych ukrytych czyli informacji zawartych w fotonach przed osiągnięciem stanu splątanego. Te właśnie zmienne ukryte miałyby oddziaływać później na splątane fotony. Teoria ta została obalona przez Johna Stewarta Bella, który sformułował w 1964 twierdzenie (zwane nierównościami Bella) mówiące, że “Żadna lokalna teoria zmiennych ukrytych nie może opisać wszystkich zjawisk mechaniki kwantowej.”.

Najciekawszą teorią tłumaczącą stan splątania kwantowego, bazującą na pracy Stephena Hawkinga z 1964 roku o tym, że czarne dziury wcale nie są takie “czarne” i emitują promieniowanie, jest hipoteza równoważności splątania kwantowego z tunelami czasoprzestrzennymi, tzw. tunelami Einsteina-Rosena. Oba wymienione pojęcia wynikają wprost z dwóch artykułów Alberta Einsteina z 1935 roku, ale Einstein nawet nie podejrzewał, że mogą być one ze sobą powiązane. Tunele czasoprzestrzenne wynikają z jednego z rozwiązań równań Einsteina zaproponowanego przez niemieckiego fizyka Karla Schwarzschilda, genialnego, przedwcześnie i tragicznie zmarłego geniusza. Rozwiązanie było na tyle dziwne, że dopiero w latach 60. XX wieku zorientowano się, że opisuje ono tunel czasoprzestrzenny łączący dwie czarne dziury. Juan Macaldena [1], fizyk teoretyczny z Princeton uważa, że dzięki splątaniu kwantowemu tworzy się geometryczne połączenie między dwoma czarnymi dziurami, które poprzez swoje wnętrze tworzą tunel czasoprzestrzenny. Dwie czarne dziury, wyglądające z zewnątrz jak dwa niezależne obiekty, w rzeczywistości mają wspólne wnętrze. Oczywiście użyte pojęcie “geometryczny” nie oznacza naszej zwykłej geometrii trójwymiarowej ale wymiarów wyższych, w których nasz trójwymiarowy Wszechświat jest zanurzony.

Splątanie kwantowe w praktyce

Obiecującym zastosowaniem splątania kwantowego jest kryptografia kwantowa, a konkretnie bezpieczna dystrybucja kluczy kryptograficznych. Odbywa się to za pomocą satelity, który generuje klucz i rozsyła go laserowo do odbiorców. Specyfika splątania gwarantuje 100% zabezpieczenie przed podsłuchem lub sfałszowaniem, gdyż każda próba ingerencji, na przykład odczyt albo zmiana treści, w wysyłaną wiązkę fotonów spowoduje niejako zniszczenie zawartej w niej informacji. Elementem protokołu jest informacja kontrolna, której pozytywna weryfikacja gwarantuje brak ingerencji w przesyłany strumień informacji, co oznacza, że nie nastąpił podsłuch transmisji. Po pomyślnej weryfikacji w węźle odbiorczym, uzyskujemy (wynikającą z praw mechaniki kwantowej) gwarancję poufności klucza.

Kwantowa dystrybucja klucza (Quantum Key Distribution QKD) powoli staje się pełnoprawnym elementem ekosystemu szyfrowania danych. W dalszym ciągu kanał przesyłania danych jest klasycznym kanałem cyfrowym a kanał dystrybucji klucza szyfrującego jest kanałem kwantowym. Należy odnotować znaczny wkład polskich badaczy w rozwój QKD. Najdłuższe w Europie łącze QKD jest właśnie testowane między Poznaniem a Warszawą. Jeden z najlepszych protokołów QKD wykorzystujących splątanie fotonów o nazwie E91 jest dziełem polskiego fizyka Artura Ekerta.

Źródła:

Równoważność splątania kwantowego i tuneli czasoprzestrzennych
https://www.projektpulsar.pl/struktura/2161853,1,splatanie-i-tunele-czasoprzestrzenne-faktycznie-sa-rownowazne.read

Wywiad z Antonem Zellingerem https://wyborcza.pl/7,75400,5801859,o-dziwacznych-prawach-mechaniki-kwantowej-opowiada-guru.html

Wywiady z noblistami 2022
https://optics.org/news/13/10/6

Intercontinental, Quantum-Encrypted Messaging and Video

https://physics.aps.org/articles/v11/7

Global quantum internet dawns, thanks to China’s Micius satellite

https://newatlas.com/micius-quantum-internet-encryption/53102/?itm_source=newatlas&itm_medium=article-body

Czy fizyka nicości leży u podstaw wszystkiego?

https://przystaneknauka.us.edu.pl/artykul/czy-fizyka-nicosci-lezy-u-podstaw-wszystkiego

https://space24.pl/satelity/splatanie-kwantowe-z-poziomu-nanosatelity-nowy-rozdzial-badan-analiza

Korelacja – fakty i mity.

Korelacja to statystyczna zależność między dwiema zmiennymi losowymi. Dlaczego losowymi? Dlatego, że wartości zmiennej losowej zależą od zdarzeń losowych. Przykładem zmiennej losowej jest na przykład dzienna liczba zachorowań na Covid-19. Pewne prawidłowości są oczywiście zauważalne ale nie można z całą pewnością przewidzieć, ile osób zachoruje jutro lub za tydzień.

Dodatnia korelacja oznacza, że wzrost jednej zmiennej spowoduje również wzrost drugiej i podobnie spadek jednej spowoduje spadek drugiej. Analogicznie, korelacja ujemna oznacza, że zmienne “poruszają się” w przeciwnym kierunku, wzrost jednej zmiennej powoduje spadek drugiej i podobnie spadek jednej spowoduje wzrost drugiej zmiennej. Analiza korelacji bardzo przydaje się w sektorze finansowym, handlu, epidemiologii, demografii i innych dziedzinach, gdzie zjawiska zachodzą w sposób nie końca przewidywalny.

Miarą wspomnianej zależności są współczynniki korelacji. Najbardziej znane z nich to współczynnik Pearsona i współczynnik Spearmana. Współczynnik Pearsona mierzy tylko zależność liniową natomiast “Spearmana” można też stosować do zależności nieliniowych. Współczynniki korelacji przyjmują wartości z zakresu (-1, +1). Wartość +1 to całkowita korelacja dodatnia, analogicznie zaś wartość -1 to całkowita korelacja ujemna.

Przyjmuje się, że współczynnik korelacji wyższy niż +0,5 lub niższy niż -0,5 świadczy o jej wysokiej jakości. Współczynnik korelacji z zakresu (-0,3 +0,3) to słaba korelacja, nieprzydatna do wyciągania wniosków.

Mit 1

Korelacja oznacza oczywisty związek przyczynowo-skutkowy.

To nieprawda. Korelacja może oznaczać, że zachodzi związek przyczynowo-skutkowy. Ale nie musi. Korelacja mówi nam tylko, jak silnie para zmiennych jest liniowo (lub nieliniowo) powiązana. Związek między dwiema zmiennymi może być pozorny i tak też to się nazywa: związek pozorny.

Przyczynowość to coś więcej niż korelacja. Przykładem przyczynowości jest zależność liczby spalanych kalorii od wysiłku włożonego w ćwiczenie/taniec/pracę fizyczną.

Podam (za 1.) przykład korelacji między sprzedażą lodów a sprzedażą okularów przeciwsłonecznych.  Wraz ze wzrostem sprzedaży lodów rośnie sprzedaż okularów przeciwsłonecznych.

Teraz, kiedy już znamy różnicę między korelacją a przyczynowością, przyjrzyjmy się pewnej słynnej (i prawdziwej) korelacji: Sprzedaż lodów w Nowym Jorku jest skorelowana z liczbą zabójstw. Korelacja jest prawdziwa, związku przyczynowego nie ma. Przecież lody nie zabijają ludzi. Przyczyną tego pozornego paradoksu jest trzecia zmienna, dodatkowy, nie zmierzony czynnik nieujęty w badaniu. To temperatura. Wzrost temperatury powoduje zwiększoną konsumpcję lodów, to jasne i oczywiste. Ta sama temperatura skłania ludzi do wychodzenia z domu, spacerów. Tym samym stanowią oni większą liczbowo pokusę dla złoczyńców, potencjalnych zabójców. Taką korelację nazywamy korelacją pozorną a wspomniana trzecia zmienna – czynnikiem zakłócającym.

Tak więc korelacja między lodami a zabójstwami jest prawdziwa, ale nie ma między nimi związku przyczynowo-skutkowego. Są za to dwa prawdziwe związki przyczynowo-skutkowe: temperatura->lody i temperatura->zabójstwa.  

Anegdotycznym przykładem korelacji nie będącej związkiem przyczynowo-skutkowym jest korelacja między liczbą bocianów na kilometr kwadratowy a przyrostem naturalnym na badanym obszarze. Bociany nie przynoszą dzieci (na pewno?), więc dlaczego korelacja jest prawdziwa? Dopiero trzecia zmienna (zakłócająca) przynosi odpowiedź. Zmienną zakłócającą jest rodzaj obszaru: miasto/wieś. Na wsi przebywa więcej bocianów niż w mieście, a przyrost naturalny naturalnie także większy.

Mit 2

Odpowiednio wysoki współczynnik korelacji dowodzi jej prawdziwości

Tak, pod warunkiem, że badana próba jest odpowiednio wysoka. Do badania jakości próbki służy współczynnik poziomu istotności czy też inaczej – niepewności. Wartość tego wskaźnika oznacza prawdopodobieństwo, że różnice w danych pomiarowych są dziełem przypadku. Dla przykładu: istotność 0,025 znaczy, że różnice czy też rozrzut danych jest przypadkowy z prawdopodobieństwem 2,5%, a 97,5%, że dane są rzeczywistym wynikiem pomiaru. W zależności od dziedziny badań przyjmuje się różne progi niepewności pomiaru, dla większości badań jest to 5% czyli 0,05. Do oznaczenia poziomu istotności stosuje się literę p lub też symbol alfa α.

Korelacja a koincydencja

Koincydencja to współwystępowanie które może dotyczyć zjawisk o różnym stopniu powiązania (w tym żadnym). Korelacja to rodzaj koincydencji dotyczącej zjawisk powiązanych. Nie każda koincydencja jest korelacją ale każda korelacja jest koincydencją. Ta różnica nie zawsze jest zauważana, jest też wykorzystywana do manipulacji i tworzenia nieprawdziwych teorii.

Nadużycia

Korelacja działa na wyobraźnię. Dlatego też jest używana jako argument (pseudo argument) przez różnego rodzaju naciągaczy, manipulantów i denialistów. Fałszywa korelacja jest bardzo często wykorzystywana do tworzenia fałszywych narracji ponieważ jest “naukowa”, sugestywna i trudna do obalenia bez znajomości tematu i aktualnych danych.

Jako przykład podam (za 3.) narrację antyszczepionkową zapoczątkowaną wpisem na Twitterze pewnego statystyka imieniem Marek, która “dowodzi”, że szczepionki zabijają. Jako przykład miało posłużyć województwo podkarpackie, a teza brzmiała: “niski poziom zaszczepienia ma związek z niską śmiertelnością”. Oczywiście, takie stwierdzenie, w dodatku podparte “autorytetem” statystyka Marka, zostało podchwycone przez czołowych antyszczepionkowców i wzmocnione do granic absurdu.

Ryc. 1 Wpis lekarza Basiukiewicza z 5 lutego 2022

Jako aktywni w tym okresie analitycy zareagowaliśmy natychmiast, “debunkując” rozrastającą się dezinformację. Łukasz Pietrzak, farmaceuta i analityk napisał: “Województwo podkarpackie miało trzeci z najwyższych wzrostów śmiertelności ogólnej. Najwyższy wskaźnik CFR i 4 miejsce w zgonach C19 przy najniższych zakażeniach”, załączając odpowiednie mapy. 13 lutego napisałem na Twitterze: “W 2. połowie 2021 liczba zgonów na Podkarpaciu na 100 tys. mieszkańców jest na 4. miejscu OD GÓRY po lubelskim, podlaskim i opolskim co nie jest żadnym powodem do chwały. Wręcz przeciwnie. Łączenie tego z proc. wyszczepienia jest nadużyciem i tworzeniem fałszywej korelacji”. W podobnym duchu wypowiadał się też Rafał Halik – epidemiolog.

  1. https://medium.com/@seema.singh/why-correlation-does-not-imply-causation-5b99790df07e
  2. https://www.naukowiec.org/wiedza/statystyka/poziom-istotnosci_705.html
  3. https://konkret24.tvn24.pl/zdrowie/zgony-a-szczepienia-na-podkarpaciu-tlumaczymy-dlaczego-to-tworzenie-falszywej-korelacji-ra1096102