Skąd się biorą metale

Metale już dawno stały się częścią cywilizacji człowieka. Dziś w zasadzie nie zauważamy ich obecności, a przecież trudno sobie wyobrazić bez nich świat.
Z punktu widzenia materiałoznawstwa i fizyki metale to materiały, które dobrze przewodzą prąd elektryczny i ciepło, są plastyczne, łatwe w obróbce, a także mają charakterystyczny połysk. Ich właściwości w dużym stopniu determinowane są obecnością w strukturze wiązań metalicznych, a także zdelokalizowanych elektronów, które łatwo mogą się przemieszczać. I właśnie ten tzw. gaz elektronowy jest odpowiedzialny za przewodnictwo elektryczne i cieplne, ale także za połysk. Metale są ciałami stałymi w temperaturze pokojowej – z jednym wszakże wyjątkiem, którym jest rtęć.

Gdzie znajdziemy metale

Większość metali występuje w skorupie ziemskiej w postaci rozmaitych związków chemicznych. Wynika to z tego, że są one stosunkowo reaktywne, a miliardy lat istnienia Ziemi pozwoliły na to, że po prostu zdążyły one przereagować z innymi pierwiastkami, tworząc rozmaite minerały. Ale są też oczywiście wyjątki, czyli tzw. metale rodzime. Najbardziej znanym z nich jest złoto, które w postaci niezmienionej przywędrowało na Ziemię z dalekiego kosmosu.

Samorodek złota (Australia) – niemal 2 kg

żródło: Wikimedia, licencja: CC BY SA 2.0

Również inne metale szlachetne występują w stanie wolnym – platyna, srebro, rod czy osm. Najczęściej spotykamy je w postaci zmieszanej, czyli jako stopy metaliczne. Innym metalem występującym gdzieniegdzie w postaci rodzimej jest miedź.

Bywa, że spotykamy też na powierzchni Ziemi metaliczne żelazo i nikiel. W tym przypadku nie nazywamy ich rodzimymi, ponieważ tak naprawdę przywędrowały one stosunkowo niedawno z przestrzeni kosmicznej, lądując w postaci meteorytów żelaznych, czasem bardzo dużych.

Meteoryt Hoba – masa ponad 50 ton (Namibia)
skład: 84% Fe, 16% Ni, ślady Co

źródło: Wikimedia, licencja: CC BY SA 2.0

Trzeba też pamiętać, że olbrzymia ilość (rzędu 1021 ton) żelaza i niklu w postaci wolnej tworzy jądro Ziemi. Na powierzchni bardzo rzadko możemy znaleźć żelazo rodzime, tzw. telluryczne. Spotyka się je na Grenlandii, lokalni Inuici wykorzystywali je do produkcji narzędzi, m.in. noży.

Redukujemy

Jeśli metal występuje na Ziemi w formie związków chemicznych, w celu jego pozyskania musimy wykonać reakcję chemiczną, znaną pod nazwą redukcji. Człowiek wpadł na pomysł redukowania związków metali, przede wszystkim żelaza, już bardzo dawno temu. Było ono niezwykle przydatne, przede wszystkim do wyrobu narzędzi. Pierwotnie żelazo pozyskiwano z rud darniowych, które zawierają niewielkie ilości limonitu, w składzie którego są tlenki i wodorotlenki żelaza. Później okazało się, że istnieją znacznie lepsze źródła tego metalu. Niezależnie jednak od tego, z jaką rudą mamy do czynienia, uzyskanie z niej żelaza pierwiastkowego polega zwykle na reakcji z węglem. Tlenki i wodorotlenki żelaza redukują się do pierwiastkowego Fe, a węgiel przechodzi w CO i CO2. Czysty przypadek zrządził, że dodatek niewielkiej ilości węgla do żelaza powoduje, że staje się ono znacznie twardsze i zyskuje doskonałe właściwości (patrz niżej). Już ponad 2 tysiące lat temu uzyskiwano żelazo, stosując tzw. dymarki, czyli gliniane piece, w których dokonywano procesu redukcji rudy. Na terenie Polski możemy zobaczyć na żywo, jak to się odbywa, uczestnicząc w połowie sierpnia każdego roku w święcie Dymarek Świętokrzyskich.

Rekonstrukcja dymarki – Biskupin
źródło: Wikimedia, licencja CC BY SA 2.5

Dziś proces otrzymywania żelaza z rudy oparty jest na tej samej zasadzie. Zmieniła się tylko wielkość urządzenia, ponieważ aktualnie używa się tzw. wielkiego pieca. Pozwala on na jednorazowe uzyskanie nawet do 300 ton surówki, którą następnie przetwarza się na stal lub żeliwo.

Podobne w konstrukcji i zasadzie działania piece stosuje się do otrzymywania kilku innych metali, takich jak cynk czy ołów.

Wielki piec – Duisburg (Niemcy)

Dietmar RabichDuisburg, Landschaftspark Duisburg-Nord, Hochofen 2 — 2016 — 1115CC BY-SA 4.0

Hydrometalurgia i elektrometalurgia

W przypadku wielu rud mamy do czynienia z mieszaniną wielu pierwiastków metalicznych. W takiej sytuacji prosty proces redukcji jest zdecydowanie niewystarczający. Z pomocą przychodzą tutaj fizyka i chemia. W zależności od tego, z jakimi metalami mamy do czynienia, stosując odpowiednie roztwory wodne, powodujemy ługowanie konkretnych związków z mieszaniny. Dalszy proces polega najczęściej na ich zagęszczeniu i wydzieleniu czystego metalu – metodą czysto chemiczną albo też elektrolityczną. Wynalezienie prądu elektrycznego w zdecydowany sposób ułatwiło metalurgom zarówno wydzielanie metali, jak też ich oczyszczanie, zwane tutaj rafinacją. Warto podkreślić, że także w procesach elektrolitycznych podstawową reakcją, która ma miejsce, jest redukcja jonów metalu do obojętnego pierwiastka.

Otrzymywanie miedzi

Miedź jest jednym z najcenniejszych metali, niezbędnym w wielu dziedzinach życia. Niestety, rudy miedzi zawierają stosunkowo wiele zbytecznego balastu. Dlatego też pierwszym procesem, którym są poddawane, jest flotacja. Wykorzystuje się tutaj różną zwilżalność składników rudy. Na olbrzymią skalę flotacja jest wykorzystywana m.in. w polskich kopalniach KGHM. W wyniku tego procesu następuje zdecydowane wzbogacenie materiału w miedź – powstaje tzw. koncentrat miedzi, składający się głównie z siarczków Cu. Następnym etapem jest uzyskanie tzw. „kamienia miedziowego”, który zawiera już ok. 30% Cu, ale też pewne ilości srebra, które zawsze towarzyszy miedzi. W kolejnym etapie kamień miedziowy pozbawia się siarki i otrzymuje surową metaliczną miedź. Ponieważ nadal zawiera ona zanieczyszczenia pogarszające jej właściwości (w tym przewodnictwo), ostatnim etapem jest elektrorafinacja, będąca, mówiąc skrótowo, elektrolizą. Przy okazji uzyskuje się inne cenne pierwiastki metaliczne, takie jak srebro, złoto, pallad i platyna, a także bardzo cenny (ok. 1900 $/kg) i rzadki ren. Polska jako jedyna w Europie produkuje ten metal z własnych źródeł.

Ze względu na to, że uzyskiwanie miedzi jest procesem drogim i kosztownym, na całym świecie metal ten podlega recyklingowi.

Aluminium

Glin to powszechnie występujący w skorupie ziemskiej pierwiastek. Jego związki były stosowane już od dawna, ale czysty glin wyodrębniono dopiero w XIX w. Aluminium, czyli glin o czystości technicznej, otrzymuje się w procesie elektrolizy, wykorzystując naturalne boksyty, w skład których wchodzą głównie wodorotlenki glinu. W pierwszym etapie boksyt przetwarza się w tlenek glinu (Al2O3). Proces ten generuje dużą ilość odpadu zwanego „czerwonym szlamem”. Gromadzony jest on w olbrzymich zbiornikach i stanowi spore zagrożenie ekologiczne. W 2010 r. na Węgrzech miała miejsce katastrofa, w trakcie której uwolnione zostało 700 tys. m3 toksycznego i żrącego czerwonego szlamu.

Tlenek glinu przerabiany jest na czysty metal w procesie elektrolitycznym (Halla-Heroulta). Wymaga on olbrzymich ilości energii elektrycznej, dlatego też wydziały elektrolizy budowane są w pobliżu istniejących elektrowni. Elektrolizery zasilane są prądem o niskim napięciu (rzędu 5V), ale olbrzymim natężeniu – 100-300 tys. amperów.

Hala elektrolizy (widoczne pionowe czarne elektrody)
źródło: Wikimedia, licencja: GNU FDL

Także ten proces bardzo negatywnie oddziałuje na środowisko naturalne, ponieważ w trakcie elektrolizy emitowane są duże ilości szkodliwych związków fluoru. Dlatego też na całym świecie promowany jest recykling odpadów aluminiowych, które w prosty sposób można przetworzyć na czysty metal i wykorzystać ponownie.

O uzyskiwaniu aluminium, a także o transporcie boksytów pisał jakiś czas temu Przemek Darmochwał.

Złoto

Ten cenny metal występuje niemal wyłącznie w postaci rodzimej, w tzw. samorodkach. Przy odrobinie szczęścia są one wypłukiwane przez wody podziemne i pojawiają się w strumieniach. Pojawienie się większych ilości samorodków dało początek masowemu napływowi poszukiwaczy złota w połowie XIX w. w Kalifornii i kanadyjskiej Kolumbii Brytyjskiej, a potem na Alasce. Był to czas tzw. gorączki złota.

It’s blow, boys, blow
For California-oh
For there’s plenty of gold, so I’ve been told
On the banks of Sacramento

Przemysłowe wydobycie szlachetnego kruszcu odbywa się w kopalniach. Przez wiele lat w wydobyciu złota przodowała RPA, dziś liderem są Chiny. Oczywiście nie zawsze jest tak, że w kopalniach występują żyły złota. Ze względu na cenę tego metalu opłacalne jest wydobycie rud o zawartości zaledwie 0,00005% Au. Przez wiele lat próbowano uzyskiwać złoto z wody morskiej, ale nadal nie ma efektywnego ekonomicznie sposobu na taką produkcję.

Stopy żelaza

Czyste żelazo stosuje się bardzo rzadko. Zazwyczaj mamy do czynienia ze stopami, w których obok żelaza występują inne składniki, przede wszystkim węgiel. Jeśli węgla jest niewiele (do ok. 0,02%), otrzymujemy ferryt. Gdy jest go więcej – do 2,11% – uzyskujemy bardzo szeroko stosowany stop zwany stalą. Metalurdzy oraz inżynierowie wyróżniają wiele rodzajów stali, ale podstawowymi dwoma kategoriami są stale niestopowe (dawniej zwane węglowymi) oraz stopowe. Te ostatnie najczęściej zawierają aż do kilkudziesięciu procent innych składników. Dodatki te w dużym stopniu wpływają na właściwości materiału, takie jak hartowność czy zwiększona wytrzymałość. Nieco ponad 100 lat temu odkryto, że spory dodatek chromu (powyżej 11%) zdecydowanie poprawia trwałość stali, która staje się odporna na korozję. Jest to tzw. stal nierdzewna, znana czasem pod skrótem INOX. Jest ona także kwasoodporna.
W przypadku, gdy węgla jest więcej niż 2,11%, taki stop nazywa się żeliwem. Znajdziemy je w starych grzejnikach, ciężkich garnkach i patelniach, a także rurach i włazach kanałowych.

Popularne stopy metali

Od bardzo dawna znane są stopy miedzi. Bardzo popularny jest mosiądz, zawierający od 10 do 45% cynku. Jest on odporny na korozję i łatwy w obróbce. Mosiądz manganowy (1% Mn) stosuje się do wyrobu monet 1, 2 i 5 gr. Jeśli składnikiem obok Cu jest cyna lub inne metale czy pierwiastki niemetaliczne, takie stopy nazywamy brązami. Ich zastosowanie jest dziś ograniczone ze względu na dość wysoką cenę. Czasami do brązów zaliczamy też spiż, w którym obok cyny występują cynk i ołów. Spiż jest odporny na korozję i ścieranie. Wykonuje się z niego dzwony, dawniej stosowano go też do wyrobu luf armatnich. Najwyższe odznaczenie wojenne Imperium brytyjskiego, Victoria Cross, było dawniej wykonywane właśnie ze spiżu pochodzącego z dwóch armat zdobytych po bitwie pod Sewastopolem (wojna krymska 1853-56).

Bardzo popularne są stopy zawierające glin. Dodatek miedzi, manganu, magnezu czy też krzemu zdecydowanie poprawiają właściwości mechaniczne tego stopu, podczas gdy gęstość niewiele odbiega od gęstości aluminium. Stosowane są w wielu konstrukcjach lotniczych. Niestety, duraluminium łatwiej niż czyste aluminium ulega korozji.
Szczególnym przykładem stopów są amalgamaty, czyli stopy metali z rtęcią. Kiedyś amalgamat zawierający srebro, cynę, miedź i kadm był stosowany w stomatologii jako wypełnienie ubytków. Dziś na szczęście to już odeszło w niepamięć.

Zmiana czasu, czyli nowa świecka tradycja

Ryc. 1 Foto: Wikimedia/domena publiczna

Tytułem wstępu

Idea zarządzania czasem pojawiła się wraz z cywilizacją. Do tego czasu ludzie żyli w harmonii z rytmem dobowym narzuconym przez przyrodę. Wstawali „z kurami”, kładli się spać, kiedy robiło się ciemno. Dopiero organizacja społeczna narzuciła wspólne zasady regulujące dzienną aktywność. Uprzemysłowienie, praca najemna, a przede wszystkim pieniądz i globalizacja jego obiegu, zmusiły nas do wzmożenia wysiłków nad udoskonaleniem organizacji czasu. Użycie sztucznego oświetlenia było dużym krokiem w tym kierunku. Wymagało jednak ponoszenia wysokich kosztów, a jakość światła palących się świec nie dorównywała światłu słonecznemu.

Pomysł sztucznego wydłużenia naturalnego dnia powstał, a właściwie zaczął kiełkować pod koniec XVIII wieku, a zmaterializował się na początku XX jako jeszcze jeden środek zaradczy na chronicznie doskwierający nam brak czasu. Była to więc pierwsza próba czynnego wpływu na naturalny proces upływu czasu.

Czy zmiana czasu z zimowego na letni ma sens?

Z ekonomicznego punktu widzenia cykliczna zmiana czasu ma pewien sens, co prawda niewielki i nie wszędzie, ale ma. Z pobieżnych obliczeń wynika, że oszczędności nie przekraczają jednego procenta, i to tylko w krajach północnej Europy. Co ciekawe, obliczenia te przeprowadzono dopiero pod koniec XX wieku. Pomiary w stanie Indiana wykazały nawet wzrost zużycia energii w sezonie letnim po cofnięciu zegarów. Oznacza to, że inicjatywa wprowadzenia zmiany czasu i intuicyjnie wyobrażane korzyści były wielką pomyłką. Zawiodła intuicja. Po stronie kosztów lista jest o wiele dłuższa: koszty organizacyjne, zdrowotne, społeczne.

Ryc. 2 Pracownik stojący przy zegarze, który jest połączony kablem podziemnym z zegarem regulacyjnym w Ministerstwie Komunikacji. – 1932 r. Źródło: NAC

Rytm dobowy człowieka jest delikatnym mechanizmem. Nawet niewielkie jego zmiany powodują stres organizmu, zwłaszcza przy zmianie czasu z zimowego na letni, kiedy śpimy o godzinę krócej. Mimo, że zmiana czasu odbywa się w nocy z soboty na niedzielę, w poniedziałek i wtorek notuje się więcej wypadków przy pracy, zawałów serca i innych zdarzeń kardiologicznych. Zaburzenie, związane ze skróceniem czasu snu, mija po około dwóch-trzech dniach. Kiedy zajęto się bardziej serio negatywnymi skutkami zmiany czasu, okazało się, że czas zimowy (czyli ten przed wprowadzeniem zmiany czasu) jest bardziej dostosowany do ewolucyjnie ukształtowanego rytmu dobowego i organizm człowieka nigdy w pełni nie zaakceptuje czasu letniego, co było wnioskiem dość oczywistym.

Całemu zamieszaniu ze zmianą czasu jest winna zmienność długości dnia wynikająca z nachylenia osi Ziemi względem płaszczyzny jej obiegu wokół Słońca. Czas obiegu nie jest całkowitą wielokrotnością długości doby. Jakoś z tym sobie poradzono wprowadzając rok przestępny. Nie to jednak było największym problemem, korekty kalendarza można przecież wprowadzać co kilkaset lat. Problemem była zmienna długość dnia. Różnice są niebagatelne, bo najkrótszy dzień (przesilenie zimowe) trwa w Polsce 7-8 godzin, a najdłuższy 16-17 godzin.

Rzymianie poradzili z tym w problemem w dość oryginalny sposób. Przyjęto a priori, że dzień ma trwać 12 godzin, bez względu na porę roku. Dodatkowo ustalono (dekretem prawa rzymskiego), że to długość godziny ma być zmienna. Tak więc godzina „zimowa” trwała około 45 minut, a “letnia” 75 minut. Prosto i elegancko.

Krótko o strefach czasowych

Wprowadzenie zmiany czasu, jaką znamy obecnie, nie mogło się odbyć bez uprzednio dokonanych regulacji związanych z czasem lokalnym. Każdy kraj, ba, każde miasto, miały swój czas. Chodzi o czas uniwersalny i strefy czasowe. Oba te pojęcia zostały zaproponowane w 1878 przez Sanforda Fleminga, kanadyjskiego inżyniera i wynalazcę. Strefy czasowe wprowadzono w 1884 roku. Całą Ziemię podzielono na 24 strefy bazujące na południkach odległych o 15°, czyli o jedną godzinę. Południki są granicami stref czasowych tylko na morzach. Granice stref na lądzie dostosowano do granic państw tak, żeby małe i średnie kraje znajdowały się w całości tylko w jednej strefie czasowej, a duże obejmowały większą ich liczbę.

Od tej reguły są też ciekawe wyjątki, których nie omieszkam przedstawić. Chiny znajdują się tylko w jednej strefie czasowej mimo, że rozpiętość czasowa wynosi tam 3 godziny. Istnieją też strefy czasowe odległe od sąsiednich o pół godziny, na przykład w Iranie. W Nepalu granica strefy czasowej jest w odległości od UTC o 5:45 godziny. Nawet w Europie są odstępstwa, na przykład Francja i Hiszpania znajdują się w jednej strefie UTC+1:00, choć z racji położenia geograficznego powinny być w UTC+0:00. Wyjątków jest więcej, w większości mają one przyczyny polityczne.

Międzynarodowa linia zmiany daty przebiega wzdłuż granicy stref UTC+12:00, +14:00, UTC-12:00. Przechodzi przez Ocean Spokojny, wzdłuż południka 180°, omijając niektóre terytoria i archipelagi. Przekroczenie linii daty w kierunku wschodnim zmniejsza datę o jeden dzień, a przekroczenie linii daty w kierunku zachodnim zwiększa datę.

Historia zmiany czasu

Benjamin Franklin, wynalazca piorunochronu, napisał w 1794 roku żartobliwy artykuł o oszczędzaniu świec i przymusowym budzeniu ludzi rano za pomocą huku armat. Wszystko w kontekście optymalnego wykorzystania światła słonecznego. Żartobliwy ton artykułu oraz fakt, że ojciec Franklina był wytwórcą świec i mydła spowodowały, że czytelnikom umknęła idea dostosowywania czasu do swoich potrzeb, a temat nie został przez nikogo potraktowany poważnie. Temat utknął na prawie wiek, co nie oznacza, że w tym czasie nic się nie działo.

Ryc. 3 Benjamin Franklin, uczony, filozof, jeden z ojców założycieli Stanów Zjednoczonych. Licencja Wikimedia Commons

Dopiero w 1895 roku nowozelandzki entomolog George Hudson, wiedziony potrzebą praktyczną, potrzebujący więcej czasu dziennego na obserwacje owadów, wpadł na pomysł urzędowej zmiany czasu, aby w miesiącach letnich wydłużyć aktywność dobową w świetle słonecznym. Argumentem ekonomicznym była prognozowana oszczędność sztucznych źródeł światła. Pomysł podjął Brytyjczyk William Willett, który w 1907 na własny koszt wydał broszurę „Marnotrawstwo światła dziennego”. Pomysł Willetta był bardzo zbliżony do obecnie stosowanych rozwiązań i polegał na cofnięciu zegarów o 80 minut (na raty po 20 minut w kolejnych tygodniach) w kwietniu i odwróceniu tej operacji we wrześniu. Według jego obliczeń oszczędności wyniosłyby 2,5 miliona funtów. Zyskał poparcie parlamentarzysty Roberta Pearce’a, a nawet samego Winstona Churchilla, ale z pomysłu nic nie wyszło.

30 kwietnia 1916 Niemcy i Austro-Węgry, motywowani wojennymi oszczędnościami węgla wprowadzili zmianę czasu na letni (Sommerzeit). Dołączyły do nich inne kraje (nie było wśród nich Polski). Po zakończeniu wojny niechęć społeczeństwa do tej nowinki zmusiła wszystkie rządy do rezygnacji ze zmiany czasu na długi czas. W Polsce podczas okupacji, w 1940 roku wprowadzono czas letni, którego stosowanie zostało przedłużone przez władze komunistyczne aż do 1949 roku. W 1957, pod wpływem „odwilży”, czas letni został znowu wprowadzony i tak trwał do 1964 roku. Po kilkunastoletniej przerwie zmianę czasu wprowadzono w 1977 roku i tak już jest do dnia dzisiejszego.

Nie znaczy to, że nic się nie dzieje. Referendum przeprowadzone w 2018 przez Komisję Europejską pokazało, że 84% społeczeństwa jest za likwidacją zmiany czasu, a Parlament Europejski zdecydował o wycofaniu w 2021 roku dyrektywy o zmianie czasu, pozostawiając decyzje w rękach poszczególnych państw. Ostatecznie tylko kilka państw zdecydowało o rezygnacji z dotychczas obowiązujących zasad, a pozostałe, w tym Polska, pozostały przy starych zasadach. Skończyło się na tym, że będzie tak jak było, do 2026 roku.