Zobaczyć atom i…

Czy można zbudować mikroskop bez obiektywu?
Można.
Czy można za pomocą tego mikroskopu obserwować atomy?
Można.

O ptychografii

Zacznijmy więc od wyjaśnienia, czym jest ptychografia (starogrecki: πτύξ oznacza „składanie”). Jest to metoda obrazowania za pomocą komputerowej analizy i nakładania wielu nakładających się obrazów dyfrakcji i interferencji światła widzialnego (lub wiązki elektronów, promieniowania rentgenowskiego, skrajnego ultrafioletu) przechodzącego przez badaną próbkę. Obraz pierwotny jest odtwarzany iteracyjnie na podstawie natężenia promieniowania ugiętego na obiekcie i fazy interferujących fal. Brak soczewek eliminuje problem dokładności ich wykonania i różnego rodzaju aberracji optycznych. Dotyczy to także soczewkowania elektronów w mikroskopie elektronowym. Inną, równie ważną zaletą, w porównaniu do mikroskopii elektronowej, jest fakt, że badane próbki nie muszą być barwione ani znakowane.

Ryc. 1 Zasada działania ptychografii. Licencja GNU Free Documentation License

Obraz ptychograficzny jest prawie doskonały, pozbawiony wad analogowych obrazów optycznych, zniekształceń, rozmyć i aberracji. Najczęściej obecnie stosowanymi urządzeniami wykorzystującymi tę technikę są mikroskopy rentgenowskie, gdzie pierwotną falą propagacyjną jest spójne promieniowanie rentgenowskie. Wachlarz zastosowań jest niezmiernie szeroki i ważny m.in. dla współczesnej technologii materiałowej. Mikroskopy rentgenowskie są wykorzystywane do badania farb, chemicznego obrazowania baterii, obrazowania warstw ogniw słonecznych i innych materiałów hi-tech. Ptychografia w świetle widzialnym jest używana do badań biologicznych komórek, ich wzrostu, reprodukcji oraz ruchliwości. Dzięki ptychografii możliwy jest rozwój badań materiałów anizotropowych jak na przykład metapowierzchnie czyli cienkie warstwy materiałów z wzorami nanoskalowymi pozwalające manipulować padającym na nie światłem. Nie byłoby też współczesnej nanotechnologii i nanomateriałów bez obrazowania ptychograficznego.

Historia

Pionierem ptychografii jest Walter Hoppe, który w 1969 roku opisał jej założenia i podstawy teroretyczne. Celem Hoppego było badanie struktur krystalicznych. Niestety, nie doczekał realizacji swojej idei, a to z powodu niewystarczającej mocy obliczeniowej ówczesnych komputerów oraz słabej jakości detektorów. Koncepcja ptychografii została przez niego porzucona w 1973. Dopiero w późnych latach 90. XX wieku komputery dysponowały odpowiednią mocą i pamięcią pozwalającymi na przeprowadzenie zasobochłonnych obliczeń. Prawdziwy rozwój ptychografii jako techniki mikroskopowej rozpoczął się w 2007 roku, kiedy zademonstrowano iteracyjną ptychografię rentgenowską w Swiss Light Source, nowym synchrotronie w Instytucie Paula Scherrera w Szwajcarii.

Zobaczyć atom

Wiadomo, że klasyczna mikroskopia elektronowa pozwala “zobaczyć” atomy, a właściwie domyślić się ich położenia, bo jakość obrazu pozostawia wiele do życzenia. Więc o co ten szum? Otóż o to, że algorytmy ptychograficzne pozwalają pięciokrotnie poprawić rozdzielczość obrazu z soczewki elektronowej stosowanej w mikroskopach elektronowych. Pokazano to w 2012 roku, a w 2018 pobito rekord Guinnessa w rozdzielczości mikroskopu (rekord poprawiono w 2021).
Obrazy ptychograficzne są rekonstruowane praktycznie bezstratnie i jedynymi zniekształceniami obrazu atomu są drgania termiczne. Nowy (2021) matrycowy detektor pikseli mikroskopu elektronowego (EMPAD) oferuje rozdzielczość 1 pikometra (pm) czyli 10-12 metra. Wielkość atomu to rząd wielkości
10-10 metra czyli 100 pm. A więc można obserwować prawdziwy obraz prawdziwego atomu a nie tylko rozmytą plamkę. W dodatku w trzech wymiarach. Jest to technika, która już znajduje wiele zastosowań, między innymi w technologii półprzewodników, katalizatorów, materiałów kwantowych (komputery kwantowe).

Ryc. 2 Obraz cząsteczek dwusiarczku molibdenu MoS2 w “niskich” rozdzielczościach oraz rozdzielczości 0,39 angstrema (Å) pozwalającej zaobserwować puste, widmowe miejsce po atomie siarki.
Źródło [1] DOI 10.1038/s41586-018-0298-5 [5]

Rzeczywiste powiększenie mikroskopu zespołu naukowców z Cornell University pod kierownictwem Davida Mullera wynosi 100 milionów. Ciekawostką jest, że detektor EMPAD celowo rozmywa nieco wiązkę, aby poprawić rekonstrukcję cyfrową. [4]

Ryc. 3 Zdjęcie atomów ortoskandanu prazeodymu (PrScO3) wykonane za pomocą ptychografii elektronowej. Źródło: Cornell University [3]

Lepszą, ale tylko trochę, rozdzielczość można uzyskać schładzając próbkę. Jednakże nawet w temperaturze zera absolutnego występują fluktuacje kwantowe rozmazujące obraz, więc można powiedzieć, że osiągnięto fizyczną granicę mikroskopii, 100000000x. Być może postęp w wydajności komputerów i bardziej wydajne algorytmy, w tym algorytmy sztucznej inteligencji oparte na uczeniu maszynowym poprawią te wyniki.

Ryc. 4 David Muller i jego mikroskop elektronowy z dopalaczem EMPAD.
Źródło: Jessie Winter dla Nature [1]

Opisana wyżej ptychografia bezsoczewkowa jest nazywana klasyczną. Technikę obrazowania za pomocą składania obrazu docelowego z obrazów cząstkowych za pomocą algorytmu z wykorzystaniem mikroskopu o standardowej optyce nazywamy ptychografią Fouriera. Dlaczego Fouriera? Ponieważ algorytmy obliczeniowe wykorzystują transformatę Fouriera do uzyskania obrazu o wysokiej rozdzielczości. Jedyną znaczącą zmianą jest zastąpienie standardowego oświetlenia oświetleniem szeregiem diod LED. Program rekonstruujący obraz badanego przedmiotu wykorzystuje algorytm iteracyjnego odzyskiwania fazy z szeregu obrazów dyfrakcyjnych. Współczynnik poprawy rozdzielczości w stosunku do obrazu analogowego z mikroskopu jest znaczący i wynosi 2, a jeśli stosuje się obrazy ciemnego pola to poprawa rozdzielczości jest jeszcze większa.

Można się spodziewać dalszego szybkiego rozwoju ptychografii gdyż jej zastosowania wpasowują się idealnie w kierunki rozwoju hi-tech, a postęp w wydajności komputerów nadal podlega prawu Moore’a. Nie zabraknie więc finansowania badań ani zapotrzebowania na tego typu urządzenia. Nawet ciekawostka w postaci uzyskania wyraźnych obrazów pojedynczych atomów i cząsteczek nie jest tylko ciekawostką ale furtką do zaawansowanej nanotechnologii i inżynierii materiałowej na poziomie atomowym.

Źródła:
1. https://www.nature.com/articles/d41586-018-07448-0?cid=2019-MS-AwarenessGeneral&utm_source=Comms-Blog&utm_medium=EM%20Blog&utm_campaign=2019-MS-AwarenessGeneral
2. https://pubs.aip.org/physicstoday/article-abstract/74/9/42/928275/Ptychography-A-solution-to-the-phase-problemFirst?redirectedFrom=fulltext

3. https://www.chip.pl/2021/05/atomy-ogladane-w-rekordowej-rozdzielczosci

4. https://www.focus.pl/artykul/naukowcy-sfotografowali-atomy-w-rekordowej-rozdzielczosci-czy-to-limit-obrazowania

5. https://www.thermofisher.com/blog/materials/breaking-barriers-in-sub-angstrom-resolution/

5. O oglądaniu rzeczy małych.

Pewnie wielu z was widziało niesamowite fotografie małych rzeczy np. bakteria, atom, pyłek kwiatu w niesamowitej ostrości i z dużą ilością detali. Wykonanie fotografii roztocza z taką ilością szczegółów nie byłoby możliwe gdyby materia nie posiadała owej dziwacznej dualnej natury.

fot: National Science Foundation

Myślę, że dla każdego z nas jest oczywistym, iż w ciemnym pomieszczeniu widać mało a żeby cokolwiek dostrzec, to trzeba je oświetlić. Żeby dostrzec drobne elementy to trzeba je oświetlić bardziej i dokładniej o czym wie każdy kto w życiu miał okazję usłyszeć słynne zdanie: “mnie świecisz czy sobie?!”. Dokładnie na tej samej zasadzie działają klasyczne mikroskopy – oświetlamy oglądane próbki światłem, które niczym fala odbija się i trafia do naszych oczu pełniących. Generalną zasadą jest tu, aby długość fala mniej więcej odpowiadała rozmiarom oglądanego obiektu. Im mniejszy jest obiekt, tym krótszej fali należy użyć. I tu zaczynają się schody prowadzące do mikroświata. Taką granicą dla światła, czyli fotonów, wydaje się być ok. 200 nm. Tu przypominam – nanometr to miliardowa część metra. Weźmy do ręki linijkę – spójrzcie na odległość milimetra, aby uzmysłowić sobie jak wygląda nanometr należałoby podzielić ten milimetr jeszcze na milion części. Jednak w mikroświecie taka długość fali to i tak bardzo dużo. Przyczyną jest relatywnie niewielki pęd fotonów.

Pamiętacie z poprzednich części te wzory? Skoro każdemu obiektowi, który pęd posiada, można przypisać falę o określonej długości to może warto skorzystać z innych cząstek? Na taki pomysł wpadli w Berlinie E. Ruska i M. Knoll w 1931r. którzy postanowili posłużyć się elektronami które łatwo rozpędzić pomiędzy katodą a anodą o odpowiedniej różnicy napięć. Im większa ta różnica, tym krótsza jest długość fali takiego elektronu a więc można oglądać naprawdę małe obiekty w niesamowitej rozdzielczości. Małe obiekty naprawdę łatwo rozpędzić do prędkości bliskich prędkości światła, a gdy ich strumień napotka próbkę, może zadziać się kilka rzeczy – elektrony mogą się odbić od powierzchni próbki lub wybić z jej powierzchni inne, a skoro mogą się odbić, to my możemy je zarejestrować. Dobrym modelem takiej sytuacji jest zabawa polegająca na obrzucaniu jakiegoś przedmiotu ukrytego pod stołem piłeczkami do ping-ponga i próba odgadnięcia kształtu obiektu. Jeśli rzucimy takich piłeczek odpowiednio dużo, to zadanie wydaje się być banalne, zwłaszcza jeśli zaprząc do pracy kilka komputerów które na podstawie zarejestrowanych piłeczek stworzą nam obraz obrzuconego obiektu. W przypadku próbki odpowiednio cienkiej, fale elektronów mogą ją zwyczajnie przeniknąć.

Skoro te urządzenia są tak banalnie proste w działaniu, to dlaczego nie są stosowane wszędzie i do wszystkiego? Nie wszędzie aż taka rozdzielczość jest potrzebna, drugą kwestią jest to iż aby elektrony mogły działać swobodnie to próbka musi być umieszczona w próżni i odpowiednio przewodzić prąd. Jak widać problem dotyczy głównie próbek “biologicznych” i można go rozwiązać w dość prosty sposób. Wystarczy taką próbkę pokryć cieniutką, bardzo cieniutką, warstewką metalu. Wynika z tego że można się również posłużyć samą powstałą “skorupką”.

Nasuwa się tu pytanie – jak głęboko da się tak zajrzeć? Jak widać z wzoru, ogranicza nas prędkość jaką możemy nadać takiemu obiektowi. Pewnie części z was przyszedł do głowy obiekt który jest moim zdaniem jedną z najfajniejszych zabawek jaką obecnie mają naukowcy – Wielki Zderzacz Hadronów!

fot: CERN-PHOTO-202109-138-1

Tak, prace prowadzone w CERN to nic innego jako obserwacja obiektów naprawdę małych. LHC jest jednym z wielu akceleratorów cząstek. Słowo wywodzi się z łaciny i oznacza nic innego jako “przyśpieszam”. Jak łatwo z tego wywnioskować rolą takiego akceleratora jest przyśpieszyć cząstki elementarne do prędkości bliskich prędkości światła. I właśnie takie akceleratory narobiły sporo bigosu w dwudziestowiecznej fizyce. Fizycy znali foton, elektron, proton, neutron i mieli świadomość że te cząstki wykazują również właściwości falowe. Wiecie co się stało gdy zaczęto zderzać z sobą strumienie takich cząstek? Do tego prostego modelu dołączyła cała masa nowych cząstek które nie były ani elektronem ani protonem ani neutronem. W pewnym momencie same tablice nowo odkrywanych cząstek zaczęły przypominać grube tomiszcza – już w latach 60. XX wieku znano ich dobrze ponad setkę. Skąd się to wzięło? Po co? Jeszcze dziwniej zrobiło się gdy zaczęto rejestrować cząstki będące efektem promieniowania kosmicznego, obecnie znamy ponad 600 takich cząstek które pozornie nie mają nic wspólnego z tymi swojskimi które budują atomy które znamy naszej szarej codzienności.

Jak posprzątano ten bałagan? Jaki związek ma z tym twaróg? To będzie część jednej z kolejnych historii.

(c) by Lucas Bergowsky
Jeśli chcesz wykorzystać ten tekst lub jego fragmenty, skontaktuj się z autorem
.