Rekordy (niekoniecznie) Guinnessa [2]

Zgodnie z obietnicą, druga część atomowych rekordów Guinnessa.

Najmniejsza zważona masa

Technika pomiaru masy (masy, nie ciężaru) ultramałych obiektów polega na pomiarze zmiany częstotliwości drgań mikrowspornika obciążanego badanym obiektem. Niestety nie nadaje się do ważenia obiektów żywych, komórek, bakterii, wirusów, ponieważ ważenie odbywa się w próżni. A właśnie biologia jest dziedziną, w której pomiary masy nanoobiektów są najbardziej pożądane. Z kronikarskiego obowiązku odnotuję więc, że naukowcy z Cornell University pod kierownictwem Harolda Craigheada zarejestrowali w 2004 roku masę 6 attogramów (1 attogram to 10-18 grama) wspomnianą metodą pomiaru zmiany częstotliwości wibracji wspornika po dodaniu mierzonej masy. Wymiary wspornika też są imponujące: 4 mikrometry na 500 nanometrów. Wibrację są wzbudzane laserowo lub za pomocą pola elektromagnetycznego. Pomiaru dokonuje się laserowo, obserwując światło odbite od wspornika (trampoliny). Minimalna, teoretycznie rozpoznawalna przez ten przyrząd masa wynosi 0,37 attograma. Dalsze udoskonalenia tej metody pozwalają mierzyć masy rzędu zeptogramów (10-21 grama).

Ryc. 1 Przyrząd do pomiarów skrajnie małych mas skonstruowany przez Craighead Group. Na końcu oscylatora wspornikowego wykonanego z azotku krzemu znajduje się złota kropka, na której umieszcza się ważony obiekt. Źródło: [1]

Jak wspomniałem, technika ta nie pozwala ważyć obiektów żywych. Naukowcy z MIT opracowali więc w 2007 roku metodę opartą również na zmianie częstotliwości drgań, ale drgająca płytka została dodatkowo wyposażona w kanalik wypełniony płynem, którym przepływają bakterie, komórki, a nawet wirusy. Jest to bardzo obiecująca metoda, umożliwiająca przeprowadzenie wartościowych pomiarów, na przykład w cytometrii przepływowej. Kierownik tego projektu – Scott Manalis napisał: “„…ważenie nanocząstek lub pojedynczych biomolekuł w roztworze z rozdzielczością, która jest o sześć rzędów wielkości bardziej czuła niż w tradycyjnych detektorach masy. Jednym z kierunków, do których dążymy, jest cytometria przepływowa oparta na pomiarze masy przepływających komórek”.
Konkretnym zastosowaniem tej techniki jest zbudowanie urządzenia działającego jak cytometr przepływowy do badania liczby komórek odpornościowych CD4 u chorych na AIDS, przekładającego się na ocenę zaawansowania choroby. Tradycyjne cytometry są duże i drogie i nie nadają się do stosowania w krajach rozwijających się, gdzie problem AIDS jest znaczący. Innym potencjalnym zastosowaniem tej metody jest pomiar wielkości nanokulek używanych w przemyśle farb, nowoczesnych lekach lub przemyśle materiałów nanokompozytowych. [2]

Ryc. 2 Opisany powyżej przyrząd do ważenia pojedynczych komórek, wirusów, bakterii (schematycznie). Widoczny jest umieszczony na drgającym wysięgniku kanalik, przez który przepływają badane obiekty. Źródło: Scott Manalis, MIT

Najszybciej obracający się obiekt

Wydawałoby się, że rekordowa liczba obrotów nie ma większego znaczenia naukowego. Mamy wiertarki szybkoobrotowe, silniki osiągające 10000 obrotów na minutę. Po co komu obiekt materialny obracający się z prędkością 300 miliardów obrotów na minutę? Taką właśnie prędkość obrotową nadali naukowcy z Purdue University pojedynczej nanocząstce. Dokonano tego za pomocą lasera, który “rozkręcił” krzemionkowe nanohantle do tej zawrotnej prędkości. Prędkość obrotowa i czułość obracającej się nanocząstki na moment obrotowy jest sednem naukowego zastosowania takiego układu fizycznego. Nie muszę dodawać, że rekord został pobity w próżni. Ale co to jest próżnia? Czy to tylko brak powietrza? Jest to tak zwana próżnia elektromagnetyczna, czyli brak ośrodka, który może spowolnić światło. Innym rodzajem próżni jest próżnia grawitacyjna, czyli brak jakiejkolwiek materii czy energii zdolnej do zaginania przestrzeni. Tej niestety nie potrafimy wytworzyć, nawet jej do końca nie rozumiemy, możemy więc tylko badać próżnię elektromagnetyczną. Czy w takiej próżni występuje tarcie? Teoretycznie tak, istnieje tarcie próżniowe spowodowane elektromagnetyzmem cząstek kwantowych, ale do tej pory nie udało się tego udowodnić doświadczalnie. Autorzy opisywanego eksperymentu twierdzą, że przy prędkości obrotowej 1 GHz tarcie próżniowe będzie wystarczająco duże a czułość wystarczająco wysoka, aby można było je zmierzyć.

Tu mała dygresja na temat pomiaru momentu obrotowego i jego czułości. Przy okazji – powtórka z fizyki (jakże lubimy niezapowiedziane kartkówki). Wartość stałej grawitacyjnej G wyznaczył pod koniec XVIII wieku (1798 rok) Henry Cavendish. Było to jak na owe czasy nie lada osiągnięcie, gdyż wartość tej stałej wynosi 6,67×10-11 niutona czyli baardzo mało. Cavendish zrobił to mierząc moment obrotowy za pomocą tzw. wagi skręceń. Na nici kwarcowej zawiesił poziomo pręt z dwiema małymi kulkami na jego końcach. Do kulek tych zbliżał z obu stron dwie duże kule ołowiane. Siły przyciągania kul skręcały nić kwarcową o pewien kąt, który Cavendish zmierzył za pomocą promienia światła odbitego od lusterka przymocowanego do nici.

Ryc 3. Waga skręceń Cavendisha. Źródło: Politechnika Warszawska, Wydział Fizyki, licencja: CC BY 4.0

Na koniec naj, naj, największe osiągnięcie naukowe wszech czasów

Mowa o artykule naukowym, który pobił rekord największej liczby autorów. Liczba autorów pierwszego wspólnego artykułu dwóch zespołów pracujących z detektorami ATLAS i CMC w Wielkim Zderzaczu Hadronów wynosi 5154. 33-stronicowy artykuł w Physical Review Letters z 14 maja 2015 składa się z 9 stron treści opisującej badanie i 24 stron listy autorów i ich macierzystych instytucji. Tematem badania było dokładniejsze oszacowanie masy bozonu Higgsa.

Kolaboracja współautorska jest dynamicznie rozwijającą się dziedziną nauki. Artykuł w Nature na temat rozpadu rzadkich cząstek miał ponad 2700 autorów, artykuły na temat genomiki często mają ponad 1000 autorów. Blaise Cronin, naukowiec z Indiana University Bloomington nazwał to zjawisko hiperautorstwem. Pierwszy artykuł opisujący obserwacje bozonu Higgsa z 2012 roku miał 2932 autorów (z których 21 uznano za zmarłych). Artykuł opublikowany w 2008 roku na temat eksperymentu CMS w LHC, stał się pierwszym artykułem, który znalazł się na ekskluzywnej “liście 3000”.

Trochę szkoda, że rekordy w tej dziedzinie są bite tylko w renomowanych światowych instytucjach badawczych. Nasze krajowe podwórko jest otwarte dla tego typu inicjatyw, które w dodatku są niskokosztowe. Wystarczy nieco dobrej woli szefa projektu, aby zespół rozrósł się z kilku do nawet paruset osób. Jasne jest jednak, że o tysiącach nie mamy co marzyć, na taką ekstrawagancję mogą sobie pozwolić tylko uniwersytety z czołówki Listy Szanghajskiej i, co oczywiste, inicjatywy ponadnarodowe w rodzaju LHC.

Źródła:

  1. https://news.cornell.edu/stories/2004/04/building-scale-sensitive-enough-weigh-virus
  2. https://news.mit.edu/2007/nanoparticles

Zobaczyć atom i…

Czy można zbudować mikroskop bez obiektywu?
Można.
Czy można za pomocą tego mikroskopu obserwować atomy?
Można.

O ptychografii

Zacznijmy więc od wyjaśnienia, czym jest ptychografia (starogrecki: πτύξ oznacza „składanie”). Jest to metoda obrazowania za pomocą komputerowej analizy i nakładania wielu nakładających się obrazów dyfrakcji i interferencji światła widzialnego (lub wiązki elektronów, promieniowania rentgenowskiego, skrajnego ultrafioletu) przechodzącego przez badaną próbkę. Obraz pierwotny jest odtwarzany iteracyjnie na podstawie natężenia promieniowania ugiętego na obiekcie i fazy interferujących fal. Brak soczewek eliminuje problem dokładności ich wykonania i różnego rodzaju aberracji optycznych. Dotyczy to także soczewkowania elektronów w mikroskopie elektronowym. Inną, równie ważną zaletą, w porównaniu do mikroskopii elektronowej, jest fakt, że badane próbki nie muszą być barwione ani znakowane.

Ryc. 1 Zasada działania ptychografii. Licencja GNU Free Documentation License

Obraz ptychograficzny jest prawie doskonały, pozbawiony wad analogowych obrazów optycznych, zniekształceń, rozmyć i aberracji. Najczęściej obecnie stosowanymi urządzeniami wykorzystującymi tę technikę są mikroskopy rentgenowskie, gdzie pierwotną falą propagacyjną jest spójne promieniowanie rentgenowskie. Wachlarz zastosowań jest niezmiernie szeroki i ważny m.in. dla współczesnej technologii materiałowej. Mikroskopy rentgenowskie są wykorzystywane do badania farb, chemicznego obrazowania baterii, obrazowania warstw ogniw słonecznych i innych materiałów hi-tech. Ptychografia w świetle widzialnym jest używana do badań biologicznych komórek, ich wzrostu, reprodukcji oraz ruchliwości. Dzięki ptychografii możliwy jest rozwój badań materiałów anizotropowych jak na przykład metapowierzchnie czyli cienkie warstwy materiałów z wzorami nanoskalowymi pozwalające manipulować padającym na nie światłem. Nie byłoby też współczesnej nanotechnologii i nanomateriałów bez obrazowania ptychograficznego.

Historia

Pionierem ptychografii jest Walter Hoppe, który w 1969 roku opisał jej założenia i podstawy teroretyczne. Celem Hoppego było badanie struktur krystalicznych. Niestety, nie doczekał realizacji swojej idei, a to z powodu niewystarczającej mocy obliczeniowej ówczesnych komputerów oraz słabej jakości detektorów. Koncepcja ptychografii została przez niego porzucona w 1973. Dopiero w późnych latach 90. XX wieku komputery dysponowały odpowiednią mocą i pamięcią pozwalającymi na przeprowadzenie zasobochłonnych obliczeń. Prawdziwy rozwój ptychografii jako techniki mikroskopowej rozpoczął się w 2007 roku, kiedy zademonstrowano iteracyjną ptychografię rentgenowską w Swiss Light Source, nowym synchrotronie w Instytucie Paula Scherrera w Szwajcarii.

Zobaczyć atom

Wiadomo, że klasyczna mikroskopia elektronowa pozwala “zobaczyć” atomy, a właściwie domyślić się ich położenia, bo jakość obrazu pozostawia wiele do życzenia. Więc o co ten szum? Otóż o to, że algorytmy ptychograficzne pozwalają pięciokrotnie poprawić rozdzielczość obrazu z soczewki elektronowej stosowanej w mikroskopach elektronowych. Pokazano to w 2012 roku, a w 2018 pobito rekord Guinnessa w rozdzielczości mikroskopu (rekord poprawiono w 2021).
Obrazy ptychograficzne są rekonstruowane praktycznie bezstratnie i jedynymi zniekształceniami obrazu atomu są drgania termiczne. Nowy (2021) matrycowy detektor pikseli mikroskopu elektronowego (EMPAD) oferuje rozdzielczość 1 pikometra (pm) czyli 10-12 metra. Wielkość atomu to rząd wielkości
10-10 metra czyli 100 pm. A więc można obserwować prawdziwy obraz prawdziwego atomu a nie tylko rozmytą plamkę. W dodatku w trzech wymiarach. Jest to technika, która już znajduje wiele zastosowań, między innymi w technologii półprzewodników, katalizatorów, materiałów kwantowych (komputery kwantowe).

Ryc. 2 Obraz cząsteczek dwusiarczku molibdenu MoS2 w “niskich” rozdzielczościach oraz rozdzielczości 0,39 angstrema (Å) pozwalającej zaobserwować puste, widmowe miejsce po atomie siarki.
Źródło [1] DOI 10.1038/s41586-018-0298-5 [5]

Rzeczywiste powiększenie mikroskopu zespołu naukowców z Cornell University pod kierownictwem Davida Mullera wynosi 100 milionów. Ciekawostką jest, że detektor EMPAD celowo rozmywa nieco wiązkę, aby poprawić rekonstrukcję cyfrową. [4]

Ryc. 3 Zdjęcie atomów ortoskandanu prazeodymu (PrScO3) wykonane za pomocą ptychografii elektronowej. Źródło: Cornell University [3]

Lepszą, ale tylko trochę, rozdzielczość można uzyskać schładzając próbkę. Jednakże nawet w temperaturze zera absolutnego występują fluktuacje kwantowe rozmazujące obraz, więc można powiedzieć, że osiągnięto fizyczną granicę mikroskopii, 100000000x. Być może postęp w wydajności komputerów i bardziej wydajne algorytmy, w tym algorytmy sztucznej inteligencji oparte na uczeniu maszynowym poprawią te wyniki.

Ryc. 4 David Muller i jego mikroskop elektronowy z dopalaczem EMPAD.
Źródło: Jessie Winter dla Nature [1]

Opisana wyżej ptychografia bezsoczewkowa jest nazywana klasyczną. Technikę obrazowania za pomocą składania obrazu docelowego z obrazów cząstkowych za pomocą algorytmu z wykorzystaniem mikroskopu o standardowej optyce nazywamy ptychografią Fouriera. Dlaczego Fouriera? Ponieważ algorytmy obliczeniowe wykorzystują transformatę Fouriera do uzyskania obrazu o wysokiej rozdzielczości. Jedyną znaczącą zmianą jest zastąpienie standardowego oświetlenia oświetleniem szeregiem diod LED. Program rekonstruujący obraz badanego przedmiotu wykorzystuje algorytm iteracyjnego odzyskiwania fazy z szeregu obrazów dyfrakcyjnych. Współczynnik poprawy rozdzielczości w stosunku do obrazu analogowego z mikroskopu jest znaczący i wynosi 2, a jeśli stosuje się obrazy ciemnego pola to poprawa rozdzielczości jest jeszcze większa.

Można się spodziewać dalszego szybkiego rozwoju ptychografii gdyż jej zastosowania wpasowują się idealnie w kierunki rozwoju hi-tech, a postęp w wydajności komputerów nadal podlega prawu Moore’a. Nie zabraknie więc finansowania badań ani zapotrzebowania na tego typu urządzenia. Nawet ciekawostka w postaci uzyskania wyraźnych obrazów pojedynczych atomów i cząsteczek nie jest tylko ciekawostką ale furtką do zaawansowanej nanotechnologii i inżynierii materiałowej na poziomie atomowym.

Źródła:
1. https://www.nature.com/articles/d41586-018-07448-0?cid=2019-MS-AwarenessGeneral&utm_source=Comms-Blog&utm_medium=EM%20Blog&utm_campaign=2019-MS-AwarenessGeneral
2. https://pubs.aip.org/physicstoday/article-abstract/74/9/42/928275/Ptychography-A-solution-to-the-phase-problemFirst?redirectedFrom=fulltext

3. https://www.chip.pl/2021/05/atomy-ogladane-w-rekordowej-rozdzielczosci

4. https://www.focus.pl/artykul/naukowcy-sfotografowali-atomy-w-rekordowej-rozdzielczosci-czy-to-limit-obrazowania

5. https://www.thermofisher.com/blog/materials/breaking-barriers-in-sub-angstrom-resolution/