Próżnia, (nie)byt skomplikowany. Część 4: Próżnie kwantowe

Pozostałe części cyklu

Część 1: Próżnie filozofów i eksperymentatorów
Część 2: Próżnie kosmiczne
Część 3: Próżnie relatywistyczne

Jeszcze jedno spojrzenie na próżnię

Ponieważ jest to ostatni odcinek cyklu, warto sobie przypomnieć, jak ewoluowało pojęcie próżni. Zaczęliśmy od filozofów starożytnych: atomistów, którzy uważali, że przestrzeń między najmniejszymi cegiełkami materii jest pusta, i antyatomistów, dla których sama koncepcja pustki absolutnej była nie do przyjęcia, toteż próbowali ją wypełnić „żywiołem subtelnym” – eterem. Wiek XIX przyniósł z jednej strony tryumf atomowej teorii budowy materii, a z drugiej – renesans koncepcji eteru, tym razem jako ośrodka przenoszącego fale elektromagnetyczne. Szczególna teoria względności zanegowała istnienie eteru, a ogólna teoria względności skupiła się na geometrii czasoprzestrzeni, abstrahując od jej „wypełniacza”. Wiemy, że przestrzenie Wszechświata są na ogół niemal doskonale puste. Jednak teorie kosmologiczne znów zaczęły sugerować, że ta „pustka” odznacza się własną gęstością energii (lub, co na jedno wychodzi, masy), co prawda znikomą, ale jak się okazuje, dostatecznie dużą, żeby decydować o geometrii i ewolucji Wszechświata. Prawda, że to trochę skomplikowane jak na dyskusję o „niczym”?

Ale najdziwniejsze jeszcze przed nami. Dziś zajmiemy się koncepcją próżni w fizyce kwantowej. Fizyka współczesna to dyscyplina pełna zdumiewających odkryć, które zmieniły świat nie do poznania. Jak wszyscy wiedzą (albo powinni wiedzieć), w pierwszych dziesięcioleciach XX w. wybuchły w niej dwie rewolucje. Jedna (ogólna teoria względności) przyniosła spójną i zgodną z obserwacjami teorię grawitacji, a druga (mechanika kwantowa), która osiągnęła dojrzałość w latach dwudziestych i trzydziestych ubiegłego wieku, dostarczyła narzędzi pozwalających zrozumieć przedziwny świat cząstek subatomowych i elementarnych oraz oddziaływań między nimi. Rozwinęła się z niej fizyka kwantowa w szerszym sensie, obejmująca kilka nowych kierunków badań, takie jak kwantowa teoria pola czy informatyka kwantowa.

Świat niedookreślony i cząstki na granicy istnienia

Jednym z fundamentów fizyki kwantowej jest zasada nieoznaczoności, sformułowana w 1927 r. przez Wernera Heisenberga. Stwierdza ona, że istnieją pewne pary wielkości fizycznych (nazywamy je kanonicznie sprzężonymi), których dla tego samego obiektu nie można jednocześnie zmierzyć z dowolną dokładnością. Im precyzyjniej próbujemy ustalić jedną z nich, tym większy będzie rozrzut wyników pomiaru drugiej i vice versa. Wynika to z faktu, że cząstki materii zachowują się pod pewnymi względami jak pakiety falowe, których parametry (odpowiadające różnym klasycznym „wielkościom fizycznym”) nie mogą jednocześnie przybierać ściśle określonych wartości. Można jedynie stwierdzić, że wartości te z takim a takim prawdopodobieństwem mieszczą się w takim a takim zakresie.

Do takich sprzężonych wielkości należą pęd i położenie cząstki, o czym pisał niedawno Lucas Bergowsky (Zasada nieoznaczoności a zapis przyszłości). Możemy na przykład, dokonując pomiaru, „zmusić” cząstkę, żeby jej pęd stał się określony z dużą dokładnością, ale wtedy jej położenie staje się rozmyte: z równym prawdopodobieństwem może się ona znaleźć gdziekolwiek w sporym obszarze przestrzeni – czyli mówiąc po prostu, nie wiadomo, gdzie jej szukać. Inna taka para wielkości to energia i czas. Nietrwała cząstka ma pewien średni czas życia i masę (czyli także równoważną tej masie energię spoczynkową E0 = m0 c2). Jeśli jest dokładnie zlokalizowana w czasie, czyli rozpada się bardzo szybko, to jej masa/energia może przyjmować wartości z dość szerokiego zakresu (staje się „rozmyta”). Natomiast im bardziej rozciągnięta w czasie jest długość życia cząstki, tym dokładniej można określić jej masę/energię.

Przykładem może być najkrócej żyjąca i jednocześnie najcięższa cząstka elementarna w modelu standardowym: kwark t. Istnieje on zaledwie ok. 5 · 10–25 s – tak krótko, że ulega rozpadowi, zanim oddziaływania silne zdążą go związać z innymi kwarkami w cząstkę złożoną (hadron). Jest dzięki temu jedynym kwarkiem, którego rozpad można zaobserwować „na swobodzie”. Masa kwarku t, wyznaczona ostatnio z dużą dokładnością, odpowiada energii 172,52 ± 0,33 GeV. Jest to wartość średnia, od której masa kwarku ujawniająca się w zdarzeniach z jego udziałem może odbiegać o wielkość rzędu 0,65 GeV (powiązaną z czasem życia, co wynika wprost z zasady nieoznaczoności), czyli prawie o masę protonu. Nie jest to kwestia niedoskonałości technicznej pomiaru (która oczywiście też komplikuje ustalenie masy tak trudno uchwytnej cząstki), tylko faktu, że kwark t nie ma i nie może mieć jednoznacznie ustalonej masy; ma natomiast pewien stosunkowo szeroki rozkład prawdopodobieństwa masy z określonym powyżej maksimum i szacowanym rozrzutem wokół niego. Natomiast masę elektronu, który jest cząstką trwałą i może żyć dowolnie długo, możemy wyznaczyć z dokładnością sięgającą obecnie kilkunastu cyfr znaczących.1

Cząstki, czyli pola wzbudzone

Próżnię „klasyczną” mogą, oprócz cząstek, wypełniać pola, spośród których poznaliśmy już pole elektromagnetyczne (kombinacja pola elektrycznego i magnetycznego) i grawitacyjne. Pole to sposób, w jaki opisujemy zdolność oddziaływania na odległość. Pola klasyczne mają to do siebie, że w danym punkcie przyjmują pewną konkretną wielkość (skalarną, wektorową bądź tensorową). W szczególności wielkość ta może być równa zeru, co oznacza, że pole w danym punkcie całkowicie zanika. Jednak w fizyce kwantowej pole staje się czymś w rodzaju obiektu fizycznego. Zaciera się granica nie tylko między cząstką a odpowiadającą jej falą, ale także między cząstką/falą a zaburzeniem pola.

Cząstka może być traktowana jako stan wzbudzenia pola na tyle trwały, że można go zaobserwować wprost. A ponieważ same pola mają naturę kwantową, oddziaływania fizyczne są opisywane jako wymiana „cząstkopodobnych” fluktuacji, które zachodzą w tak krótkim czasie i w tak ograniczonej przestrzeni, że zgodnie z zasadą nieoznaczoności nie można im przypisać określonej energii/masy ani pędu/prędkości. Nie można ich także zaobserwować bezpośrednio. Używane w odniesieniu do nich określenie „cząstki wirtualne” rodzi w umyśle obraz pojawiających się i znikających cząstek materialnych. Jest to wyobrażenie nieco zwodnicze, bo aby cząstka mogła naprawdę zaistnieć, powinna mieć choć trochę określone parametry. Istnieją jednak realne (czy też „urealnione”) cząstki odpowiadające wirtualnym nośnikom oddziaływań: bezmasowe fotony i gluony, ciężkie bozony pośredniczące Z0 i W± oraz jeszcze masywniejsza cząstka Higgsa (patrz ryc. 1).

Ryc. 1.

Model standardowy postuluje istnienie znacznej liczby pól odpowiadających poszczególnym rodzajom cząstek elementarnych, interpretowanych jako ich obserwowalne wzbudzenia. Są wśród nich pola sił odpowiedzialne za przenoszenie oddziaływań fundamentalnych (elektromagnetyczne, słabe i silne), natomiast skalarne pole Higgsa odpowiada za generowanie masy spoczynkowej niektórych cząstek elementarnych.

Można w zasadzie powiedzieć, że w rzeczywistości kwantowej nie ma nic prócz wszechobecnych pól, a to, co uznajemy za cząstki i oddziaływania, odpowiada ich wzbudzeniom i fluktuacjom. Jedno pole pozostaje wszakże poza zasięgiem modelu standardowego: pole grawitacyjne, którego opis nadal jest klasyczny. Nie stworzono dotąd powszechnie akceptowanej teorii grawitacji kwantowej. Nie zaobserwowano także hipotetycznych nośników oddziaływań grawitacyjnych – grawitonów. Ogólna teoria względności i fizyka kwantowa pozostają uzupełniającymi się opisami Wszechświata, między którymi brakuje spójnego związku (choć zakłada się, że wszystkie pola i związane z nimi cząstki oddziałują grawitacyjnie).

Lista pól, jakie współistnieją we Wszechświecie, oparta tym, czego wymaga modelu standardowy, nie jest z pewnością pełna. Przypomnijmy sobie, że nie wiemy, na przykład, czym jest ciemna materia, stanowiąca według modelu ΛCDM ok. 84% masy wszelkiej materii złożonej z cząstek. Model Standardowy z prawdopodobieństwem graniczącym z pewnością wymaga poważnego rozszerzenia, aby przynajmniej był zgodny z danymi kosmologicznymi (już pomijając kwestię „specjalnego statusu” oddziaływań grawitacyjnych).

Drgawki, na które nie ma lekarstwa

Stany pola mogą być opisane jako drgania – suma wzbudzeń oscylatorów harmonicznych o różnych częstotliwościach. Energia kinetyczna oscylatora klasycznego jest zawsze dodatnia, a jej średnia wartość może przybierać różne wartości w ciągłym zakresie, poczynając od zera – jak w przypadku wahadła zatrzymanego w punkcie równowagi i pozostającego w spoczynku. Natomiast oczekiwana energia oscylatora kwantowego może dla danej częstotliwości drgań przyjmować tylko pewne dyskretne poziomy energii różniące się o stałą wartość ΔE = hf, gdzie h jest stałą Plancka, a f częstotliwością. Taka określona porcja energii odpowiada pojedynczemu kwantowi pola. Jednak najniższa dopuszczalna energia oscylatora kwantowego (zwana energią punktu zerowego lub energią drgań zerowych) wynosi E0 = hf/2, czyli połowę pojedynczego kwantu. Nie można się jej pozbyć, bo najmniejszą porcją energii, jaka może być pochłonięta lub wypromieniowana w zdarzeniach fizycznych, jest właśnie jeden kwant.

Wskutek tego pole kwantowe nie może nigdzie całkowicie zaniknąć. Zanik oznaczałby bezruch: w danym miejscu pęd związany z oscylacjami osiągałby wartość dokładnie równą zeru, a tego zakazuje zasada nieoznaczoności Heisenberga. Wahadło kwantowe, w odróżnieniu od klasycznego, nigdy nie może jednocześnie znajdować się w punkcie równowagi (minimum energii potencjalnej) i w bezruchu. Dlatego na przykład ruchy cząstek nie zanikają całkowicie nawet dowolnie blisko temperatury zera bezwzględnego (0 K) .2

Próżnia jako zbiór fluktuacji

Zatem w przestrzeni wypełnionej polami, nawet wówczas, gdy nie ma w niej żadnych obserwowalnych wzbudzeń, które można by było zinterpretować jako obecność cząstek elementarnych, każde pole ma w dowolnym miejscu i czasie własną wewnętrzną energię, stanowiącą sumę energii drgań zerowych dla oscylatorów o różnych częstotliwościach. Fizyka kwantowa zmusza pola do nieustannych losowych fluktuacji. Zgodnie z zasadą nieoznaczoności, skrajnie krótkotrwałe zaburzenia oznaczają duży rozrzut energii, jak gdyby pole spontanicznie generowało „cząstki wirtualne”, a dokładniej – pary złożone z wirtualnej cząstki i antycząstyki, które znikają równie szybko, jak się pojawiły. Można powiedzieć, że pole podtrzymuje swoje istnienie, nieustannie oddziałując samo z sobą nawet pod nieobecność „prawdziwych” cząstek. Znów pojawia się tu coś, co przywodzi na myśl dziewiętnastowieczny eter, ale i tym razem analogia jest czysto powierzchowna. Próżnia kwantowa złożona z fluktuujących pól wygląda tak samo dla każdego obserwatora inercjalnego, nie można więc wykryć ruchu jednostajnego względem niej; zachowana jest także oczywiście stała prędkość światła.

Szereg potwierdzonych eksperymentalnie zjawisk fizycznych wskazuje na to, że fluktuacje próżni kwantowej są czymś rzeczywistym, a nie tylko nadinterpretacją modelu matematycznego. Klasycznym przykładem jest efekt Casimira (przewidziany teoretycznie przez holenderskiego fizyka Hendrika Casimira w 1948 r.), polegający na tym, że między dwiema nienaładowanymi, przewodzącymi płytkami zbliżonymi w próżni na odległość d mniejszą niż 1 μm powinna się pojawić mierzalna siła przyciągająca. Bierze się ona stąd, że na zewnątrz płytek fluktuacje próżni mogą mieć dowolną długość fali3, natomiast między nimi, jak we wnęce rezonansowej, wkład do energii próżni dają tylko oscylacje o długości fali 2d/n, czyli takie, których połówka okresu mieści się w d całkowitą liczbę razy. Zatem gęstość energii skwantowanego pola elektromagnetycznego na zewnątrz płytek będzie większa niż pomiędzy nimi, jak gdyby gaz złożony z wirtualnych fotonów wywierał ciśnienie naciskające na płytki z zewnątrz (gdzie gęstość tego „gazu” jest większa niż między płytkami).

Ryc. 2.

Konflikt na pograniczu

Pewnym (delikatnie to ujmując) problemem jest fakt, że sumowanie wszystkich możliwych wkładów w całkowitą energię pól kwantowych każdego punktu w skończonym obszarze daje wynik formalnie dążący do nieskończoności. Nie ma zgody, co począć z tym fantem. Samo mechaniczne sumowanie jest procedurą cokolwiek naiwną. Pola mogą oddziaływać między sobą, zatem traktowanie ich jako niezależnych oscylatorów harmonicznych jest uproszczeniem. Wielu cząstek, a zatem i związanych z nimi pól, zapewne jeszcze nie znamy i nie wiemy, czy ich wkład w całkowitą energię próżni jest dodatni, czy ujemny (co dopuszczają niektóre hipotezy). Ponieważ nie dysponujemy kwantową teorią grawitacji, trudno przewidzieć konskwencje skwantowania oddziaływań grawitacyjnych, a właściwie samej czasoprzestrzeni.

W praktyce stosuje się wybieg polegający z grubsza na przyjęciu, że przy opisie zjawisk kwantowych interesują nas jedynie różnice energii względem pewnej energii odniesienia – obojętnie jakiej, choćby i nieskończonej (tak jak wzrost stojącego człowieka liczymy względem powierzchni, na której człowiek stoi, a nie na przykład jako odległość czubka jego głowy od środka Ziemi). Tu jednak pojawia się konflikt na styku fizyki kwantowej oraz kosmologii (opartej na ogólnej teorii względności). Przyjmijmy, że jakiś mechanizm – niekoniecznie zrozumiały przy obecnym stanie wiedzy – niweluje skutki niezerowej energii podstawowej pól w taki sposób, żeby nie wpływała ona ona na geometrię czasoprzestrzeni. Wtedy efektywna energia próżni z punktu widzenia OTW byłaby dokładnie zerowa. Jednak, jak widzieliśmy w poprzednim odcinku, obserwacje wskazują na istnienie równomiernie rozłożonej „ciemnej energii”, która jest niezbędna, żeby wyjaśnić z jednej strony płaską lub niemal płaską geometrię wielkoskalową Wszechświata, a z drugiej – jego przyśpieszającą ekspansję.

Intuicja podszeptuje, że jeśli próżnia kosmiczna posiada niezerową gęstość energii, a teorie kwantowe wymuszają niezerową energię podstawowych stanów pól, to między jednym a drugim faktem powinien istnieć jakiś związek. Byłoby przy tym miło, gdyby oczekiwania teoretyczne były zgodne z obserwacjami. Jednak wynikająca z pomiarów gęstość próżni (aczkolwiek kluczowa w modelach kosmologicznych) jest śmiesznie mała w porównaniu z tym, co wynika z kwantowej teorii pola.4 Przez „śmiesznie mała” należy rozumieć, że rozbieżność wynosi ok. 120 rzędów wielkości. Tym lepiej zresztą dla nas, a także dla Wszechświata. Gdyby gęstość próżni była zgodna z szacunkami teoretycznymi i wynosiła 1096 kg/m3, Wszechświat nie byłby – mówiąc eufemistycznie – miejscem, jakie znamy i lubimy.5

Próżnia coraz bardziej tajemnicza

Zapewne przy obecnym stanie wiedzy po prostu nie ma sensu stosowanie przewidywań fizyki kwantowej (która pomija oddziaływania grawitacyjne), aby przewidzieć zjawiska istotne dla OTW (która z kolei pomija kwantowe podejście do opisu oddziaływań grawitacyjnych).6 Poprzestańmy zatem na konstatacji, że całkowita energia próżni kwantowej nie jest na razie obliczalna (co nie ma wielkiego praktycznego znaczenia, dopóki nie rozważamy jej wpływu w skali kosmicznej), a ciemna energia ma gęstość bardzo małą, lecz większą od zera i na razie niewyprowadzalną z teorii pól kwantowych (co także nie jest wielkim zmartwieniem, dopóki nie próbujemy na serio zunifikować fundamentalnych teorii fizycznych).

Wielka unifikacja wciąż nam się wymyka. Nie dlatego, żeby brakowało hipotez – mamy raczej problem z ich nadmiarem. Wszystkie proponowane rozwiązania nie mogą jednocześnie być prawdziwe (choć mogą być – i być może są – jednocześnie fałszywe). Ale żeby porównać ich zgodność z empirią w celu oddzielenia ziarna od plew, trzeba by było rozstrzygających obserwacji i eksperymentów. Te, które przeprowadzono do tej pory, ujawniają tak doskonałą, że aż irytującą dokładność przewidywań zarówno OTW, jak i teorii kwantowych tam, gdzie są one stosowalne. Nie podpowiadają jednak, jak scalić te teorie w spójny opis wszystkich aspektów Wszechświata.

Przesłanie końcowe

Dotychczasowy rozwój fizyki w dużym stopniu polegał na przełamywaniu ograniczeń naszej naiwnej wyobraźni. Po każdym dużym kroku naprzód świat stawał się curiouser and curiouser (jak to ujął Lewis Carroll w Alicji w Krainie Czarów). Z punktu widzenia przedstawionych tu refleksji nad historią pojęcia próżni, czyli pustki tak doskonałej, jak to tylko możliwe, mamy do czynienia z interesującym paradoksem. Próżnia współczesna, z uwzględnieniem jej aspektów relatywistycznych, kosmologicznych i kwantowych, pozostaje zjawiskiem bardziej zagadkowym niż kiedykolwiek w przeszłości, choć zdawałoby się, że nie może istnieć nic prostszego. Być może trzeba poczekać na kolejny przełom w fizyce, zanim lepiej zrozumiemy, czym jest „nic”.

Przypisy

  1. Można to sobie wyobrazić na podstawie analogii z drgającą struną. Im krócej trwa jej drganie, tym trudniej określić, a nawet zdefiniować jego częstotliwość. Natomiast jeśli drganie obejmuje wiele okresów drgań struny, określenie częstotliwości nie nastręcza problemów. Wystarczy policzyć liczbę oscylacji w dłuższym okresie czasu i wykonać proste dzielenie (tyle a tyle cykli na sekundę). ↩︎
  2. Nie jest to jedyna ważna różnica między oscylatorem klasycznym a kwantowym. Na przykład ten drugi może z pewnym prawdopodobieństwem znaleźć się w obszarze zabronionym według modelu klasycznego („uciec″ ze studni potencjału, nie pobierając energii z zewnątrz). In a różnica polega na tym, że oscylujące wahadło spędza najwięcej czasu tam, gdzie porusza się najwolniej, a jego energia potencjalna jest największa, czyli blisko miejsc maksymalnego wychylenia, natomiast oscylator kwantowy z największym prawdopodobieństwem można znaleźć w otoczeniu stanu o najniższej energii potencjalnej. ↩︎
  3. Oczywiście ta „dowolność″ jest względna, bo w praktyce efekt Casimira bada się np. w komorze próżniowej, która też narzuca oscylacjom pewne warunki brzegowe. Ale w każdym razie zakres swobody jest dla nich znacznie większy niż w wąskiej szczelinie między płytkami. ↩︎
  4. Albo raczej zdaje się wynikać, bo założenia przyjmowane w próbach teoretycznego oszacowania całkowitej energii próżni zdecydowanie skłaniają do sceptycyzmu. ↩︎
  5. Odpowiada to mniej więcej domniemanej gęstości Wszechświata, kiedy jego wiek był rzędu czasu Plancka, czyli 5,39 · 10–44 s. Dla porównania: najgęstsze obiekty astronomiczne, jakie znamy (poza hipotetyczną osobliwością we wnętrzu czarnej dziury), czyli gwiazdy neutronowe, mają gęstość „zaledwie″ około 3,7–5,9 · 1017 kg/m3. Jest to nieco więcej niż gęstość materii wewnątrz jądra atomu. ↩︎
  6. Aczkolwiek od czasu do czasu ktoś próbuje; patrz Łach 2023 (Projekt Pulsar) o publikacji Tkatchenko & Fedorov 2023). ↩︎

Opis ilustracji

Ryc. 1. Siedemnaście cząstek „modelu standardowego”. Nie wszystkie podane masy są zgodne z aktualnymi oszacowaniami (co nie powinno dziwić, bo jest to dynamicznie rozwijający się obszar badań). Autor: Andrzej Barabasz (Chepry) 2012. Źródło: Wikimedia Commons (licencja CC BY-SA 3.0).
Ryc. 2. Efekt Casimira. Obszar między przewodzącymi płytkami narzuca ograniczenia na długość fali oscylacji (odpowiadających wirtualnym fotonom) w kierunku prostopadłym do płytek. Autor: Kyle Kinsgbury (aphyr) 2009 (fair use).

Lektura uzupełniająca

  • Więcej o kwarku t. Adamczyk 2024 (kwantowo.pl).
  • Dlaczego model standardowy jest teorią zbyt dobrą. Kowalski-Glikmann 2022 (Projekt Pulsar)
  • Dla ambitnych czytelników: różne aspekty i odmiany efektu Casimira i jego możliwe znaczenie praktyczne. Stange, Campbell & Bishop 2021.

Kryptografia kwantowa, czyli w poszukiwaniu absolutu

Ten artykuł jest rozwinięciem tekstu Splątanie kwantowe, czyli coś, co działa, ale nie wiadomo dlaczego, w którym zostaną przybliżone zagadnienia kryptografii kwantowej.

Po pierwsze należy wyjaśnić, co rozumiemy przez pojęcie „kryptografia kwantowa”. Kryptografia kwantowa, przynajmniej ta stosowana obecnie, nie polega na kwantowym szyfrowaniu przekazu informacji. To odbywa się nadal metodami i algorytmami tradycyjnymi. Zjawiska kwantowe są używane do bezpiecznej transmisji klucza szyfrującego, wykorzystując zasadę nieoznaczoności Heisenberga mówiącą, że każde odczytanie polaryzacji fotonu powoduje bezpowrotne zniszczenie tej informacji. Oznacza to, że każda ingerencja mająca na celu podsłuchanie przesyłanego klucza może być wykryta i powoduje ponowne jego przesłanie, aż do skutku. Przy przesyłaniu kwantów światła nie ma możliwości podsłuchu pasywnego, każdy odczyt strumienia fotonów powoduje jego wykrywalne zakłócenie.

Kwantowa dystrybucja klucza (Quantum Key Distribution QKD) wykorzystuje dwa kanały przesyłu: tradycyjny światłowód jako kanał publiczny oraz kanał kwantowy (też światłowodowy) do przesyłu pojedynczych fotonów klucza. Kanał kwantowy jest dużo wolniejszy od kanału publicznego z dość oczywistych względów, transmituje strumień pojedynczych fotonów a nie ich modulowaną wiązkę. Oba kanały są używane do różnych celów, które opiszę dalej.

Znamy wiele protokołów QKD, spora w tym też zasługa polskich naukowców. Opiszę jeden z nich, podstawowy protokół Bennetta-Brassarda zwany BB84 opracowany w 1984 roku.

Podstawy

Konieczne jest zapoznanie się z podstawowymi pojęciami dotyczącymi polaryzacji kwantu światła (fotonu). Światło jest falą elektromagnetyczną, która drga we wszystkich możliwych kierunkach. Przepuszczenie światła przez odpowiedni ośrodek powoduje, że drgania stają się uporządkowane i odbywają się tylko w jednej płaszczyźnie. Mówimy wtedy o polaryzacji liniowej, płaszczyznę nazywamy płaszczyzną polaryzacji, a kąt, który tworzy płaszczyzna polaryzacji z płaszczyzną pionową – kątem polaryzacji. W kryptografii kwantowej używa się polaryzacji pionowej (0 stopni i 90 stopni) oraz ukośnej (45 stopni i 135 stopni). Nazywamy je bazami – odpowiednio: baza prosta i baza ukośna.

Kryptografia kwantowa wykorzystuje dwa kanały: kwantowy kanał komunikacji prywatnej i klasyczny kanał komunikacji publicznej. Kanał kwantowy służy do wymiany klucza za pomocą cząstek kwantowych (fotonów), a kanał publiczny do uzgadniania baz (o tym później) i korekcji błędów.

Kryptografia kwantowa opiera się na dwóch cechach mechaniki kwantowej: zasadzie nieoznaczoności Heisenberga i twierdzeniu o nieklonowaniu. Twierdzenie o nieklonowaniu mówi, że ​​nie jest możliwe utworzenie identycznych kopii nieznanego stanu kwantowego. Dzięki temu można dowiedzieć się, czy ktoś przerwał (podsłuchał) kanał kwantowy podczas transmisji.

Wysyłany foton jest spolaryzowany w jednej z dwóch baz (prosta i ukośna), a w ramach bazy: pionowo lub poziomo dla bazy prostej i diagonalnie lub antydiagonalnie dla bazy ukośnej, co jest znane jedynie nadającemu. Wybór bazy i polaryzacji w ramach bazy odbywa się losowo. Odbiornik, za pomocą losowo wybranej bazy odczytuje polaryzację fotonu. Od strony technicznej odczyt odbywa się poprzez przepuszczenie fotonu przez kryształ kalcytu, charakteryzujący się dwójłomnością, czyli współczynnik załamania w tym krysztale zależy od kierunku polaryzacji światła, który, w zależności od polaryzacji fotonu aktywuje prąd elektryczny w jednym z dwóch fotopowielaczy. Odczytana informacja binarna, 0 lub 1, zależy od kierunku jednej z czterech możliwych polaryzacji.

Ryc. 1 Alfabet kwantowy [1]

Protokół Bennetta-Brassarda (BB84)

Tradycyjnie nadawcę nazywamy Alice, a odbiorcę Bobem. A więc Alice zamierza przesłać bezpiecznie klucz szyfrujący jako ciąg losowo spolaryzowanych fotonów do Boba. Posługując się podanym wyżej alfabetem jest to ciąg bitów. W tym celu dla każdego fotonu losowo wybiera jedną z dwóch baz (prosta, ukośna) i jedną z dwóch ortogonalnych polaryzacji w zależności od wartości wysyłanego bitu i wysyła spolaryzowany foton kanałem kwantowym. Ciąg wysyłanych bitów też może być losowy, jest to nawet wskazane ze względów bezpieczeństwa. Bob, dla każdego odebranego fotonu wybiera losowo bazę do odczytu i odczytuje polaryzację, a tym samym wartość bitową. Następnie wysyła (kanałem publicznym) listę wybranych przez siebie baz. Wyniki odczytu zachowuje w tajemnicy. Alice wybiera jako poprawne tylko te fotony, dla których występuje zgodność baz jej i Boba i kanałem publicznym informuje o tym Boba, które bazy zostały wybrane poprawnie. Wybór jednakowych baz jest spowodowany tym, że tylko zgodne bazy gwarantują, że Bob odbierze to, co Alice wyśle. Różne bazy wywołają kwantowy efekt losowości, gdzie Alice wysyła „1” a Bob odczytuje „0”. Bob, kasuje niepoprawne bity, a pozostałe (poprawne) są traktowane jako klucz szyfrujący.

Ryc. 2 Przykład transmisji niepodsłuchiwanej [2]

Wszystko fajnie, ale gdzie tu kwantowa innowacyjność?

Załóżmy, że ktoś podsłuchuje, włącza się do transmisji, odczytuje fotony (bity) wysyłane przez Alice i następnie przesyła dalej do Boba. Niech się nazywa Ewa. Ewa nie zna bazy wybranej przez Alice więc musi zgadywać, dokonując odczytu za pomocą baz wygenerowanych losowo, które wcale nie muszą być zgodne z bazami Alice. Alice i Bob nie wiedzą o obecności Ewy, ale mogą wykryć podsłuch metodami statystycznymi.

Prawidłowa i niepodsłuchiwana transmisja klucza powinna zawierać około 50% bitów pewnych, wybranych przez Alice na podstawie porównania baz, 25% bitów prawidłowych, mimo złego wyboru bazy przez Boba i 25% bitów nieprawidłowych. Aby wykryć podsłuch, wybiera się pewien ciąg fotonów, na które Bob i Alice nałożyli te same bazy, i sprawdza się, czy uzyskano te same wyniki. Jeśli przynajmniej dla jednego fotonu uzyskano różne wyniki mimo nałożenia tych samych baz, to oznacza to, że na łączu wystąpił podsłuch.[3]. Do wykrycia podsłuchu wystarczy sprawdzenie 10% bitów transmitowanego klucza, zakładając, że klucz jest długi. Skąd to założenie? Istnieje niezerowe prawdopodobieństwo, że Ewa przypadkiem wylosuje właściwe bazy, takie, jakich użyła Alice. Jednak wraz z długością klucza to prawdopodobieństwo maleje do wartości bliskich zera. A klucze szyfrujące są długie, gdyż są to przeważnie klucze jednorazowe o długości równej długości przesyłanego komunikatu. Oczywiście Ewa, podsłuchując kanał jawny, pozna niewielką część klucza użytego do kontroli transmisji, ale to nic nie szkodzi.

Ryc. 3 Przykład transmisji podsłuchiwanej [2]

Kwantowy generator liczb losowych

Zjawisko losowej zmiany polaryzacji fotonu po przepuszczeniu przez kryształ jest wykorzystywane do generowania liczb prawdziwie losowych. Dotychczas posługiwaliśmy sie generatorami liczb pseudolosowych, które są algorytmami komputerowymi obliczającymi ciągi liczb na podstawie zadanej z góry liczby zwanej seed (zarodek, ziarno). Określenie „pseudolosowy” jest tu całkowicie uzasadnione, ponieważ generator może z jednego ziarna wyprodukować tylko jeden ciąg liczb, a więc znając ziarno możemy przewidzieć każdy element ciągu liczb pseudolosowych. Pytani, skąd wziąć seed? Wartość seed może być narzucona arbitralnie przez programistę lub użytkownika lub pochodzić z kolejnego generatora liczb pseudolosowych. Krąg zamknięty. Nie znaczy to, że taki generator jest bezużyteczny. Jest przydatny do wielu zastosowań, rozkłady statystyczne są prawidłowe, ale jednak do zastosowań wymagających absolutnej losowości takie rozwiązanie jest, powiedzmy, średnio przydatne. Takim zastosowaniem jest kryptografia z kluczem jednorazowym, gdzie nieprzewidywalność wartości klucza jest warunkiem koniecznym zachowania bezpieczeństwa. Klucz taki byłby nie do złamania.

Artur Ekert i jego E91

Za ojca kryptografii kwantowej opartej na splątaniu kwantowym uważany jest Artur Ekert, polski profesor fizyki pracujący na co dzień w Oxford University, laureat wielu prestiżowych nagród, m.in. Medalu Maxwella, Nagrody Kartezjusza, Medalu Hughesa, a ostatnio Royal Society Milner Award and Lecture.

Profesor Ekert jest autorem jednego z najlepszych protokołów kwantowej dystrybucji klucza E91, który nowatorsko wykorzystuje zjawisko splątania kwantowego. Jest też jednym ze współtwórców opisywanego tu protokołu BB84.

Ryc. 4 Autorzy protokołu BB84: Charles H Bennett, Gilles Brassard i Artur Ekert.
Źródła: [1][4]

Praktyczne zastosowania QKD

Obecnie wiele ośrodków na świecie prowadzi prace rozwojowe nad komercyjnym zastosowaniem kwantowej dystrybucji kluczy szyfrujących. Jako ciekawostkę można podać przykłady takich nowatorskich zastosowań. W 2004 w Wiedniu wykonano pierwszy przelew bankowy z wykorzystaniem QKD. W szwajcarskim kantonie Genewa wyniki głosowania w wyborach krajowych 2007 przesłano z wykorzystaniem technologii kwantowej. System QKD zainstalowano również w campusie w Columbus w Ohio do przesyłania danych do zakładu produkcyjnego w pobliskim Dublinie.

Wystrzelona w sierpniu 2016 r. misja kosmiczna QUESS utworzyła międzynarodowy kanał QKD między Chinami a Instytutem Optyki Kwantowej i Informacji Kwantowej w Wiedniu – na odległość 7500 km, umożliwiając pierwszą międzykontynentalną bezpieczną kwantową rozmowę wideo. Razem z ośrodkami w Pekinie, Jinan, Hefei i Szanghajem tworzą pierwszą na świecie sieć kwantową przestrzeń kosmiczna-Ziemia.
Sieć liczy ponad 700 naziemnych węzłów optycznych połączonych z dwoma łączami Ziemia-satelita, które zapewniają kwantową dystrybucję klucza na łącznym dystansie 4600 kilometrów.

Ryc. 5 Pierwsza na świecie sieć kwantowa w Chinach.
Źródło: University of Science and Technology of China

W 2024 r. ESA planuje wystrzelenie satelity Eagle-1, eksperymentalnego kosmicznego systemu dystrybucji kluczy kwantowych.

Źródła:

  1. http://dydaktyka.fizyka.umk.pl/Pliki/Kryptografia_kwantowa.pdf
  2. https://home.agh.edu.pl/~kozlow/fizyka/kwantowa%20kryptografia/K.%20Mackowiak,%20krypt_kwant.pdf
  3. https://yadda.icm.edu.pl/baztech/element/bwmeta1.element.baztech-833e2748-3edf-4041-aa71-b49262ff7e90/c/sobota_ZNPSLOZ_74_2014.pdf
  4. https://www.merton.ox.ac.uk/news/professor-artur-ekert-milner-award
  5. https://www.eoportal.org/satellite-missions/quess#launch