Maszyny molekularne: chemia, fizyka i inżynieria przyszłości

W grudniu 1959 r. wybitny fizyk, Richard P. Feynman, został zaproszony do wygłoszenia referatu na posiedzeniu Amerykańskiego Towarzystwa Fizycznego, odbywającym się na Caltechu w Pasadenie (Kalifornia). Uczony zatytułował swoje wystąpienie „There’s plenty of room at the bottom” („Tam na dole [w głębi] jest wiele miejsca”). Było to zaproszenie do tego, aby stworzyć zupełnie nową gałąź nauki, która będzie się zajmować możliwością manipulacji materią na poziomie pojedynczych atomów czy też cząsteczek. Spytał w nim: „A może udałoby się całą zawartość 24 tomów «Encyclopaedia Britannica» zmieścić na czubku szpilki?”. Jako fizyk, który całą młodość poświęcił na rozmaite eksperymenty, zasugerował kilka metod, które mogłyby pozwolić na realizację tego pomysłu. Pisał o tym jakiś czas temu Wiesław Seweryn. Można uznać, że ten wykład Feynmana zapoczątkował to, co dziś nazywamy ogólnie nanotechnologią.

Wykład Richarda Feynmana o nanomaszynach (1984)

Na pewien czas temat został zapomniany. Zmieniło się to po 20 latach, kiedy to ukazała się książka K. Erica Drexela „Engines of Creation. The Coming Era of Nanotechnology” z przedmową Marvina Minsky’ego. Jest ona w pewnym sensie twórczym rozwinięciem idei Feynmana. Autor pisze w niej o możliwości zapisania całej zawartości Biblioteki Kongresu USA na chipie o wielkości kostki cukru, jak też rzuca pomysł samoreplikujących się nanomaszyn. Rozwija także myśl Feynmana o „nanolekarzach”, czyli miniaturowych urządzeniach wprowadzanych do organizmu człowieka, aby dokonywać napraw miejsc chorych. Ale zauważa też, że możliwe są czarne scenariusze. To właśnie Drexel wymyślił „szarą maź” (ang. grey goo), czyli coś, co pozostaje po biosferze, gdy samoreplikujące się maszyny wymykają się spod kontroli.

Każda maszyna w świecie makro składa się z wielu elementów, które często są wspólne dla różnych maszyn. Przykładowo – koła zębate czy przekładnie są zarówno w maszynie do szycia, jak też w samochodzie czy w tokarce. Wiele maszyn wymaga napędu, czyli obecności jakiegoś silnika. Podobnie będzie w przypadku maszyn molekularnych. I tutaj wchodzą na scenę chemicy organicy. To właśnie oni mają za zadanie zaprojektować i zsyntetyzować podstawowe elementy, z których potem będzie można budować różne konstrukcje. Trzeba coś podobnego stworzyć na bazie kilkudziesięciu czy też kilkuset atomów. Często inspiracją dla konstrukcji jest natura. Znany jest bardzo spektakularny przykład kinezyny, zwanej białkiem kroczącym.

Poruszanie się białka (kinezyny) na “rurce” tubulinowej
źródło: Wikimedia, licencja: domena publiczna

Nie jest to łatwe zadanie, ale odnotowano już na tym polu pierwsze sukcesy. Specjalistom od syntezy było o tyle łatwiej, że od jakiegoś czasu istniała już dziedzina zwana topologią chemiczną, choć w połowie XX w. uznawano ją za nieco egzotyczną. Zajmuje się ona matematycznym opisem trójwymiarowej geometrii już istniejących cząsteczek, jak też przewidywaniem kształtu takich, których jeszcze nie otrzymano eksperymentalnie.
Na początku XXI w. struktury stały się bardziej złożone – otrzymano m.in. nanozawór, który może być zastosowany w systemach dostarczania leków bezpośrednio w konkretne miejsce organizmu. Kolejne syntezy dały też cząsteczkę, która działa jak zapadka. Był to pierwszy krok do stworzenia przekładni – bardzo istotnego elementu wielu konstrukcji mechanicznych. Następna była pompa molekularna, a niedługo później stworzono pierwszy syntetyczny silnik molekularny napędzany światłem.

Nanomotor skonstruowany w Cockrell School of Engineering (2014)

Jedni uczeni skupili się na tworzeniu elementów maszyn molekularnych, inni poszli na całość. A wszystko zaczęło się w zasadzie od publikacji w naukowo-satyrycznym dwumiesięczniku „Annals of Improbable Research” („Roczniki badań nieprawdopodobnych”). Co ciekawe, jej autorem jest Polak, Marek T. Michalewicz. W swoim tekście zasugerował on możliwość stworzenia nanoauta, m.in. na bazie znanych już fulerenów. Idee Michalewicza postanowił zrealizować w pierwszej dekadzie XXI w. zespół z Rice University w Teksasie, pracujący pod kierunkiem prof. Jamesa Toura. Zsyntetyzowano związek składający się z nieco ponad 700 atomów, wyposażony w cztery koła (fulereny C60), ramę oraz dwie osie.

Nanoauto zsyntetyzowane w Rice University

źródło: Wikipedia, licencja: domena publiczna

Nie jest to jeszcze takie prawdziwe auto, ponieważ nie posiada silnika. Jednym z celów badawczych zespołu było stwierdzenie, czy koła pojazdu w trakcie ruchu będą się ślizgać po powierzchni, czy też toczyć. Badania wykazały, że toczą się, tak jak w prawdziwym aucie. Obecnie trwają prace nad stworzeniem nanoauta wyposażonego w silnik molekularny napędzany światłem. Osiągnięto już częściowy sukces, przy czym konieczna była zmiana kół fulerenowych na karboranowe (związek boru, węgla i wodoru).
A skoro są auta, to trzeba pomyśleć o wyścigach. Wiosną 2017 roku zostały rozegrane pierwsze na świecie wyścigi nanoaut. Na starcie stanęło sześć zespołów. Zwycięskie auto osiągnęło prędkość maksymalną 95 nm/h!

W 2016 r. nagrodę Nobla otrzymali Jean-Pierre Sauvage (za syntezę katenanów), sir J. Fraser Stoddart (za rotaksany oraz tzw. windę molekularną) oraz Bernard L. Feringa (za stworzenie silnika molekularnego, którego najnowszy model osiągnął 12 tys. obrotów na sekundę). Było to ukoronowanie prac teoretycznych oraz syntetycznych, które trwają nieprzerwanie od lat 80. XX w. Można więc powiedzieć, że stworzyli oni coś w rodzaju molekularnych klocków Lego dla twórców nanomaszyn różnego rodzaju.

Jesteśmy na początku drogi. Wydaje się, że czekają nas jeszcze lata żmudnej pracy, zanim zobaczymy realne, złożone maszyny molekularne w działaniu. Cały czas także trwają prace nad nanofabrykami, czyli systemami, w których budowa kolejnych pokoleń nanomaszyn będzie się odbywać automatycznie na poziomie molekularnym. To oczywiście nie jest też wynalazek człowieka. W każdej naszej komórce działają takie fabryki, np. syntetyzujące białka na podstawie informacji zawartych w DNA. Podobnie ma się rzecz z maszynami molekularnymi – białka motoryczne, takie jak wspomniane wyżej niesamowite kroczące kinezyny czy też będące składnikami mięśni miozyny. Ewolucja biologiczna wytworzyła wiele mechanizmów, którym przyglądamy się coraz dokładniej, czerpiąc inspirację do naukowej chemiczno-fizycznej twórczości. Najważniejsze jest jednak to, że pokazano, iż idee Feynmana, które kilkadziesiąt lat temu uznawano za fantazję, można jednak przełożyć na konkrety.

Nanotechnologia

Na dole jest mnóstwo miejsca”. Tak brzmiała myśl przewodnia wykładu Richarda Feynmana na spotkaniu Amerykańskiego Towarzystwa Fizycznego 29 grudnia 1959 r. Jest to zarazem umowna data narodzin nanotechnologii. Wykład Feynmana zawierał w zasadzie wszystkie koncepcje nanotechnologii rozwijane współcześnie:
Coraz gęstsze obwody komputerowe. Stało się to widoczne od czasu zdefiniowania przez Gordona Moore’a w 1965 „prawa” mówiącego, że ekonomicznie optymalna liczba tranzystorów w układzie scalonym zwiększa się w kolejnych latach wykładniczo. Wykładnik Moore’a wynosił 1,5, obecnie jest skorygowany do 2, ale prawo Moore’a nadal obowiązuje.
Jeszcze dokładniejsza mikroskopia. W latach 50. szczytem techniki mikroskopowej były skaningowe mikroskopy elektronowe (od 1935 roku). W międzyczasie powstały wielokrotnie dokładniejsze mikroskopy: mikroskop tunelowy, mikroskop sił atomowych, mikroskop z sondą skanującą.
Nanomaszyny „układające atomy tak, jak chcemy” i dokonujące syntezy chemicznej poprzez mechaniczną manipulację atomami.
Nanoroboty medyczne. Feynman przedstawił koncepcję „połknięcia lekarza” w postaci nanorobota chirurgicznego.
Nowe materiały do produkcji elektroniki w nanoskali: szkło i plastik. Obecną realizacją tej wizji są światłowody (szkło) i polimerowe tranzystory polowe.

Wykład miał miejsce w 1959 roku i przez następne 20-30 lat nie wywierał praktycznie żadnego wpływu na rozwój technologiczny, który musiał „dogonić” wizję Feynmana. Dopiero na początku lat 90. XX. wieku nanotechnologia zaczęła coraz śmielej wypełniać niszę naukową zapowiedzianą przez genialnego fizyka. Termin „nanotechnologia” został pierwszy raz użyty przez Japończyka Norio Taniguchi w 1974 r. w celu opisania precyzyjnego wytwarzania materiałów z tolerancjami nanometrowymi.

W 1985 roku Thomas Newman z Uniwersytetu Stanforda odtworzył pierwszą stronę „Opowieści o dwóch miastach” Charlesa Dickensa, stosując litografię wiązką elektronów. Otrzymał za to osiągnięcie Nagrodę Feynmana, wyznaczoną w 1959 za stworzenie tekstu pisanego w skali 1/25 000.

Ryc. 1 „Opowieść o dwóch miastach” w wykonaniu Thomasa Newmana.
Źródło: Nature Nanotechnology

Przełomowy okazał się słynny eksperyment Eiglera-Schweizera, precyzyjnie manipulujący 35 atomami ksenonu, opisany w Nature w 1990 r.

Ryc. 2 Logo IBM utworzone z 35 atomów ksenonu na powierzchni niklu za pomocą skaningowego mikroskopu tunelowego. Każda litera ma zaledwie 5 nanometrów wysokości.
Źródło: IBM

Ciekawostka (a nawet dwie)

W 2016 roku grupa badaczy z TU Delft ogłosiła, że zapisała binarnie jeden z akapitów przemówienia Feynmana umieszczając atomy chloru na podłożu z atomów miedzi, wykorzystując do manipulowania atomami skaningowy mikroskop tunelowy. Każdy atom chloru może znajdować się w dwóch pozycjach: jeśli znajduje się na dolnym atomie miedzi, jest to „0”; jeśli znajduje się na najwyższym atomie, to jest to „1” (Ryc. 1). Poniżej treść tego akapitu (tłumaczenie), będącego w istocie manifestem nanotechnologii:

Ale nie boję się rozważyć ostatniego pytania, czy ostatecznie – w wielkiej przyszłości – będziemy mogli ułożyć atomy tak, jak chcemy; same atomy, aż do samego dołu! Co by się stało, gdybyśmy mogli ułożyć atomy jeden po drugim tak, jak chcemy (oczywiście w granicach rozsądku; nie można ich ułożyć tak, aby były na przykład niestabilne chemicznie). Do tej pory zadowalaliśmy się kopaniem w ziemi w poszukiwaniu minerałów. Podgrzewamy je i robimy z nimi różne rzeczy na dużą skalę, mając nadzieję, że otrzymamy czystą substancję z taką ilością zanieczyszczeń i tak dalej. Ale zawsze musimy zaakceptować jakiś układ atomowy, jaki daje nam natura. Nie mamy niczego, powiedzmy, w układzie „szachownicy”, z atomami zanieczyszczeń precyzyjnie rozmieszczonymi w odległości 1000 angstremów lub w jakimś innym szczególnym układzie.

Do zapisania tekstu wykorzystano dokładnie jeden kikibajt informacji (8192 bity). Skala miniaturyzacji zapisu jest taka, że „wszystkie książki świata” można zapisać na powierzchni znaczka pocztowego (teoretycznie).

Ryc. 3 Najmniejszy „dysk twardy” wykonany w TU Delft z zapisanym słynnym cytatem z artykułu Feynmana. Źródło: https://nos.nl/artikel/2118333-wetenschappers-tu-delft-ontwikkelen-kleinste-harde-schijf-ooit

Zapewne większość z Was zapyta teraz „co to jest, ten kikibajt?”. Kikibajt to 210 bajtów czyli dokładnie 1024. „Ale przecież to jest kilobajt!” – odpowiecie. Nie, kilobajt to 1000 bajtów. Właśnie dlatego IEC, czyli International Electrotechnical Commission, czyli towarzystwo terminologicznych purystów, międzynarodowa organizacja normalizacyjna, która przygotowuje i publikuje normy dotyczące elementów elektrycznych i elektronicznych, utworzyła taki termin. Zainteresowanych odsyłam do [1].

Nagroda Feynmana

Tak jak napisałem wcześniej, dopiero w latach 90. XX wieku nanotechnologia stała się uznaną dziedziną nauki. Duża w tym zasługa Kima Erica Drexlera, którego praca doktorska „Nanosystems: Molecular Machinery Manufacturing and Computation” z 1991 roku otrzymała nagrodę Association of American Publishers za najlepszą książkę o informatyce. Wcześniejsza książka Drexlera Engines of Creation: The Coming Era of Nanotechnology to wizjonerskie dzieło, mądre i inspirujące. Autor przedstawia w nim maszyny budujące „atom po atomie” oraz inne pomysły Feynmana z roku 1959, widziane oczami inżyniera 30 lat później. Niewątpliwie książka ta, wielokrotnie wznawiana i aktualizowana, była (i jest) ogromnym inspirującym bodźcem dla badaczy. Tenże Drexler założył instytut badawczy nanotechnologii Foresight Institute, który ustanowił nagrodę Feynmana. To prestiżowe wyróżnienie było przyznawane od 1993 roku, początkowo co dwa lata, a od 1997 roku corocznie, w dwóch kategoriach: teoretycznej i eksperymentalnej. Przeglądając listę wyróżnień z ostatnich 25 lat [4] możemy znaleźć co najmniej kilka rewolucyjnych i przyszłościowych rozwiązań (w kategorii eksperymentalnej) takich jak: nanorurki węglowe, silniki molekularne, mikroskopy do manipulacji atomami i cząsteczkami, tranzystory jednoatomowe, nanotechnologia DNA.

Oprócz dorocznych nagród, instytut Foresight sformułował wymagania do dwóch Wielkich Nagród Feynmana:
1. Zaprojektowanie i skonstruowanie ramienia robota, które mieści się w sześcianie o wymiarach nie większych niż 100 nanometrów. Ideą tej nagrody jest przyspieszenie prac nad manipulowaniem pojedynczymi atomami lub cząsteczkami i łączenia ich w większe struktury z atomową precyzją.
2. Zaprojektowanie i skonstruowanie komputera mieszczącego się w sześcianie o wymiarze nie większym niż 50 nanometrów. Komputer ten powinien poprawnie dodać dowolną parę 8-bitowych liczb binarnych, odrzucając przepełnienie.
Nagrody nie zostały jeszcze (i długo nie będą) przyznane, ale ich wysokość (milion dolarów) z pewnością zmotywuje wiele zespołów, dając tym samym impuls do szybszego rozwoju nanotechnologii.

Nagrody Nobla związane z nanotechnologią

Nagrody Nobla z fizyki są od lat zdominowane przez tematy ekstremalne na pograniczu science i fiction. Oprócz pewniaków, czyli czarnych dziur, egzoplanet, fal grawitacyjnych czy neutrin, także nanotechnologia coraz śmielej zdobywa przychylność Komitetu Noblowskiego. I to zarówno w dziedzinie fizyki jak i chemii. Niestety, Alfred Nobel ustanawiając nagrodę, nie przewidział (ponad 120 lat temu), że za sto lat chemia (a przynajmniej pewne jej obszary) zostanie wchłonięta przez fizykę. Z tego powodu jeden z postulatów manifestu Feynmana, ten o nanomaszynach „układających atomy tak, jak chcemy”, dotyczy obu dziedzin.

W ciągu ostatnich dwudziestu lat kilka nagród Nobla zostało przyznanych za osiągnięcia dotyczące nanotechnologii sensu stricte. Przedstawię pokrótce trzy z nich, mam nadzieję, że reprezentatywnie pokazujące perspektywiczne kierunki badań.

Nagroda Nobla z fizyki 2023
Anne L’Huillier, Pierre Agostini i Ferenc Krausz

Nagroda została przyznana za opracowanie metody wytwarzania ultrakrótkich, attosekundowych (10-18s) impulsów światła, pozwalających na badanie struktury wewnętrznej atomów, w tym (a może przede wszystkim) obserwacji i rejestracji ruchu elektronów. Dotychczas dostępne impulsy femtosekundowe (10-15s) nie umożliwiały rejestracji ruchu a jedynie obserwacje i pomiary zachowania elektronów na zasadzie uśredniania. Z tego powodu osiągnięcie można uznać za przełomowe. Jako ciekawostkę i ilustrację, co znaczy atto-ułamek wystarczy powiedzieć, że attosekunda jest tak krótka, że ​​ich liczba w ciągu jednej sekundy jest równa liczbie sekund, które upłynęły od powstania Wszechświata, czyli 13,8 miliarda lat temu.

Ryc. 4 Attosekunda ma się do jednej sekundy tak, jak jedna sekunda do wieku wszechświata. Źródło: https://www.nobelprize.org/prizes/physics/2023/popular-information/

Nagroda Nobla z chemii 2016
Jean Pierre Sauvage, Sir J. Fraser Stoddart, Bernard Lucas Feringa
„Za projektowanie i syntezę maszyn molekularnych”.

Wszystko zaczęło się od pracy Jeana Pierre’a Sauvage’a na temat katenanów (splecionych struktur podwójnych lub potrójnych pierścieni) i J.Frasera Stoddarta nad rotaksanami (cząsteczka w kształcie hantla połączona z makrocząsteczką w kształcie pierścienia). Utorowała ona drogę do rozwoju przełączników molekularnych i silników molekularnych. Zespół Bernarda Feringa zaprojektował nano-samochód, syntetycznie skonstruowaną cząsteczkę, która ma korpus i cztery koła (struktury molekularne przypominające koła prawdziwego samochodu). Taki samochód może się poruszać ruchem kroczącym, na podobieństwo białek kinezynowych na włóknach aktynowych. Przyszłe wykorzystanie może polegać na transporcie ładunków wielkości molekularnej (na przykład leków) do docelowej lokalizacji, na przykład komórki nowotworowej. Innym zastosowaniem, bardzo na czasie, jest precyzyjny transport zmodyfikowanych antybiotyków. Modyfikacja polegałaby na umożliwieniu włączania aktywności antybiotyku dopiero po dotarciu do celu. Pomogłoby to w walce z coraz bardziej powszechnym problemem antybiotykoopornych bakterii.

Ryc. 5 Nano-samochód Bernarda Faringi. Źródło: https://www.molecularcloud.org/p/nobel-prize-in-the-field-of-nanotechnology

Nagroda Nobla z fizyki 2007
Peter Gruenberg i Francuz Albert Fert
“Za odkrycie zjawiska gigantycznej magnetorezystancji”

Pod takim, dość hermetycznym, opisem kryją się zastosowania, bez których nie byłby możliwy tak ogromny rozwój dysków twardych, używanych m.in. w odtwarzaczach MP3. To właśnie odkrycie jest jednym z pierwszych praktycznych zastosowań nanotechnologii.
Na czym polega istota odkrycia? Połączenie cienkich warstw materiałów magnetycznych i niemagnetycznych tworzy materiał, który przy braku pola magnetyczne ma wysoką oporność elektryczną. Oporność maleje jednak znacznie w obecności pola magnetycznego. Aby jednak zjawisko Giant Magnetoresistance (GMR) wystąpiło, grubości poszczególnych warstw magnetycznych i niemagnetycznych powinny być rzędu atomów. Powstał więc problem opracowania technologii umożliwiającej produkcję na skalę przemysłową. Metoda stosowana przez Grünberga i Ferta (epitaksja) była pracochłonna i kosztowna, lepiej nadawała się do laboratorium badawczego niż do procesu technologicznego. Stuart Parkin, Anglik pracujący w Stanach Zjednoczonych, udowodnił, że podobny efekt można osiągnąć przy użyciu znacznie prostszej technologii – napylania. Od tego czasu wydarzenia potoczyły się błyskawicznie, wkrótce na rynek trafiły pierwsze głowice dysków twardych stosujące nową technologię GMR, zastępując dotychczas stosowane głowice MR, zwłaszcza dla wielkich pojemności.

Ryc. 6 Gęstość zapisu twardych dysków komputerowych. Zaznaczono lata wprowadzenia nowych technologii MR i GMR. Źródło: Szwedzka Akademia Nauk. https://www.nobelprize.org/prizes/physics/2007/popular-information/

Refleksja końcowa

Nagrody Nobla są przyznawane, zdarza się, że parędziesiąt lat po dokonaniu odkrycia. Nie inaczej jest z nanotechnologią. Zjawisko GMR zostało odkryte w 1997 roku, a Nagroda Nobla została przyznana dopiero 20 lat później. Prace Anne L’Huillier pochodzą z 1997 roku, a Pierre Agostini i Ferenc Krausz dokonali swoich odkryć w 2001. Otrzymali za to Nobla w 2023 roku. Prace Sauvage’a, Stoddarta i Feringa pochodzą z przełomu wieków, Nobla zaś otrzymali w 2016.

Dwadzieścia lat to w rozwoju nauki i technologii epoka. Boję się myśleć, jakie współcześnie opracowywane (i trzymane w tajemnicy) nanotechnologie zostaną uhonorowane Noblem za 10-20 lat.

Źródła:
1. https://www.logicmonitor.com/blog/what-the-hell-is-a-kibibyte
2. https://www.nature.com/articles/344524a0
3. https://www.newscientist.com/gallery/dn16474-tiny-letters/
4. https://en.wikipedia.org/wiki/Feynman_Prize_in_Nanotechnology
5. https://www.molecularcloud.org/p/nobel-prize-in-the-field-of-nanotechnology
6. https://www.nobelprize.org/prizes/physics/2023/popular-information/

Profesor Geist miał rację, czyli rzecz o aerożelach

Bolesław Prus – Lalka, wyd. Gebethner i Wolff, 1890, licencja: domena publiczna

Marzenie profesora Geista

Przez 4 lata liceum przeczytałem od deski do deski tylko dwie lektury. Jedną z nich była „Lalka”. Zafascynowała mnie epizodyczna postać profesora Geista, szalonego wynalazcy, „starego waryata”, jak sam siebie określał. Marzyciel w 100% oddany nauce.

Zacytuję fragment z wizyty Wokulskiego w pracowni Geista w Paryżu.

„Mamy trzy sześciany tej samej wielkości i z tego samego materyału, które jednak są nierównej wagi. A dlaczego? Gdyż w pełnym sześcianie jest najwięcej cząstek stali, w pustym mniej, a w drucianym najmniej. Wyobraź więc sobie, że udało mi się zamiast pełnych cząstek, budować klatkowate cząstki ciał, a zrozumiesz tajemnicę wynalazku. Polega on na zmianie budowy wewnętrznej materyałów, co nawet dla dzisiejszej chemii nie jest żadną nowością”.

Ludzie – Prus to napisał ponad 130 lat temu!

Dziś zapewne sam Prus, jak też Geist, z fascynacją oglądaliby współczesne cuda: aerożele i nanopianki. Sam oglądam te materiały z szeroko otwartymi oczami. Ale zacznijmy od pewnych pojęć podstawowych. Chodzi o układy koloidalne, potocznie zwane koloidami. Są to specyficzne mieszaniny niejednorodne, składające się z (najczęściej) dwóch faz. Jedna z nich nazywa się fazą rozpraszającą, druga – rozpraszaną. Na pewno znacie je z codziennego życia. Mamy np. pianę, gdzie w cieczy (faza rozpraszająca) są zawieszone bąbelki powietrza (faza rozpraszana). Znamy też emulsje, gdzie są dwie niemieszające się ciecze. Do tej grupy zaliczamy np. mleko czy majonez. Być może widzieliście kiedyś tzw. szkło rubinowe, gdzie w zwykłym szkle występują cząstki złota nadające całości piękną czerwoną barwę. Jedyną mieszaniną, która z definicji nie tworzy koloidów, są gazy – one zawsze się ze sobą doskonale mieszają.

Podbudowani teorią możemy wyruszyć na wyprawę w krainę aerożeli. Sto lat temu amerykański chemik i inżynier Samuel Kistler pracował nad otrzymaniem materiałów o wielkiej porowatości. Efektem była publikacja w „Nature” w 1931 roku. Opisał tam, jak uzyskać porowaty materiał, który nazwano aerożelem. Wykorzystywał krzemionkę, tlenki metali, ale też substancje organiczne: albuminę, agar, nitrocelulozę. Aerożele są popularnie nazywane zamrożonym dymem (ang. frozen smoke), co doskonale obrazuje strukturę tego materiału. W zasadzie składa się on z powietrza „obudowanego” substancją stałą.

“Mrożony dym” – 2,5 kilogramowa cegła na 2-gramowym aerożelu
licencja: domena publiczna

Sam Kistler nie był zainteresowany przełożeniem swojego wynalazku na praktykę. Zainteresowała się nim firma Monsanto, dziś znana z zupełnie innych produktów. Produkowany przez nią aerożel miał być materiałem izolacyjnym, ale też zagęstnikiem do napalmu. Świat jednak nie był specjalnie zainteresowany, stąd aerożele pozostały na długie lata tylko ciekawostką technologiczną.

Jak się produkuje aerożel?

Zacznijmy od podstaw. W tym przypadku tzw. fazą rozpraszającą jest ciało stałe (np. krzemionka), a fazą rozproszoną gaz (zwykle powietrze). Pewnego rodzaju aerożele znamy z natury. Tego typu układem jest choćby pumeks, wulkaniczna skała magmowa o wysokiej porowatości. Aby otrzymać aerożel z krzemionki, bierze się ziarna krzemionki dobrze wymieszane z wodą. Drugim etapem jest zamiana fazy rozproszonej (wody) na inną ciecz, najczęściej alkohol, który z kolei jest zamieniany na inny łatwo parujący rozpuszczalnik organiczny. Całość umieszcza się w autoklawie i ogrzewa. Rozpuszczalnik odparowuje, pozostawiając w strukturze materiału pory. I gotowe. Innym rodzajem takiego żelu jest znany wszystkim styropian – tu fazą stałą jest polistyren. Przez lata wypracowano setki rozmaitych metod syntezy aerożeli dostosowanych do konkretnych zastosowań.

Aerożel z azotku boru (BN) o gęstości 0,6 mg/cm3 podtrzymywany dwoma włosami

Źródło: Wikipedia, licencja: CC BY-SA 4.0

Dlaczego aerożele są interesujące?

Tak naprawdę niezwykle mała gęstość aerożeli to tylko jedna z istotnych właściwości, ale niekoniecznie najważniejsza. Niesamowicie ważne są ich właściwości izolujące termicznie. Nawet cienka warstwa tego materiału chroni przed wysoką temperaturą. Wiadomo, że powietrze jako takie jest dobrym izolatorem ciepła. W strukturze aerożeli większość objętości stanowi właśnie powietrze, ale jest tu ono jeszcze lepszym izolatorem. Wynika to z tzw. efektu Knudsena. Wyjątkowo niewielkie wymiary przestrzeni porowatej w tym materiale powodują, że cząsteczki powietrza mają znacznie mniejszą średnią drogę swobodną (czyli nie mogą się efektywnie poruszać), a co za tym idzie znacznie słabiej przewodzą ciepło. Łatwo można się domyślić, że im mniejsze będą pory w aerożelu, tym bardziej efektywne będzie izolowanie.

Demonstracja doskonałych właściwości izolacyjnych aerożelu, licencja: domena publiczna

Ponowne odkrycie aerożeli

Ale tak naprawdę aerożelowa rewolucja #2 zaczęła się dopiero w latach 70. XX w. Było to związane z syntezą związków znanych jako siloksany. Okazały się one bardzo wdzięcznym materiałem do produkcji coraz to ciekawszych aerożeli. Sporo prac pochodziło w tym czasie z laboratoriów francuskich. Badacze poszukiwali efektywnych metod przechowywania tlenu i paliwa rakietowego w materiałach porowatych. Opracowali prostszy proces w porównaniu z Kistlerem, eliminując etap zamiany wody na alkohol. Odparowanie rozpuszczalnika w warunkach nadkrytycznych pozwoliło na uzyskanie aerożelu o wyjątkowo porowatej strukturze. W kolejnych latach okazało się, że materiały te są doskonałe do produkcji detektorów wykrywających promieniowanie Czerenkowa.

Jednak dopiero na przełomie XX i XXI w. zaczęto produkować naprawdę niezwykłe rodzaje aerożelu. Tym razem w grę nie wchodziły tlenki metali, ale same metale. W tym przypadku najpierw przygotowuje się związek kompleksowy metalu z ligandem organicznym, a następnie silnie ogrzewa (np. przy pomocy lasera), co powoduje utlenienie części organicznej do dwutlenku węgla i pozostawienie silnie porowatego metalu. Tego typu struktury nazywane są często nanopiankami, ponieważ średnica porów wewnątrz takich materiałów jest właśnie rzędu nanometrów. Uzyskano wiele rodzajów takich nanopianek, głównie z metali przejściowych, takich jak pallad, platyna, złoto czy nikiel. Nie była to tylko sztuka dla sztuki. Ze względu na olbrzymią powierzchnię właściwą takie aerożele / nanopianki znajdują zastosowanie jako wyjątkowo efektywne katalizatory. Gęstość metalicznych nanopianek jest zdecydowanie mniejsza od gęstości wody. W ostatnich latach spore zainteresowanie budzą nanopianki miedziowe, ponieważ są wykorzystywane jako katalizatory bardzo ważnej z ekologicznego punktu widzenia reakcji konwersji dwutlenku węgla do węglowodorów.

Mikrofotografia nanopianki złota (Au)

Źródło: Burpo, F., Nagelli, E., Morris, L., McClure, J., Ryu, M., & Palmer, J. (2017). Direct solution-based reduction synthesis of Au, Pd, and Pt aerogels. Journal of Materials Research, 32(22), 4153-4165. doi:10.1557/jmr.2017.412

Aerożele z węgla

Od jakiegoś czasu bardzo intensywne prace prowadzone są z wykorzystaniem takich odmian alotropowych węgla jak grafit, grafen i nanorurki. W przypadku tego pierwszego najczęściej stosowane są techniki druku 3D. Często otrzymuje się aerożele węglowe metodą pirolizy, czyli silnego ogrzewania bez dostępu powietrza. Otrzymany produkt charakteryzuje się wyjątkowo wielką porowatością i powierzchnią właściwą sięgającą 2500 m2/g. W zależności od procedury produkcji można uzyskać aerożele węglowe dobrze przewodzące prąd. Mają one zastosowanie praktyczne – produkuje się z nich superkondensatory, służące m.in. do magazynowania energii elektrycznej. Jest to temat bardzo przyszłościowy, stąd intensywne poszukiwania nowych metod wytwarzania aerożeli węglowych.

Ultralekki aerożel węglowy otrzymany przez zespół naukowców z Chin

Źródło: Adv. Mater., 2013, 25, 2554-2560

Przy okazji – inna odmiana alotropowa węgla, nanorurki, wytwarzana metodą chemicznego osadzania z fazy gazowej, czasami też jest określana, błędnie, mianem aerożelu. Owszem, tego typu produkt ma niesamowite właściwości wytrzymałościowe i elektryczne, ale nie są aerożelami, ponieważ nie wykazują regularnej porowatości.

Przyszłość

Wydaje się pewne, że aerożele to materiały XXI wieku. Poza już znanymi zastosowaniami prowadzi się obecnie prace nad przechowywaniem wodoru w porach aerożelowych. Materiały te znajdą też zastosowanie w technice – m.in. do konstruowania mocnych i lekkich struktur lotniczych i kosmicznych. Mówi się o zastosowaniu specjalistycznych aerożeli do produkcji okien o wysokim stopniu izolacji termicznej. Innym obszarem zastosowań jest technologia oczyszczania wody i powietrza.

I pomyśleć, że wszystko zaczęło się od zakładu wspomnianego na początku Kistlera i jego kolegi z laboratorium, dr. Charlesa Learneda. Kistler stwierdził, że da radę usunąć wodę z żelu krzemionkowego bez zmniejszania jego objętości, Learned wątpił, że uda się to zrobić. Myślę, że żaden z nich nie spodziewał się, że sto lat później aerożele będą robić tak zawrotną karierę.