Nie tylko K-202, czyli o Jacku Karpińskim

Jacka Karpińskiego przedstawiać nie trzeba, to konstruktor minikomputera K-202, o rewelacyjnych jak na swoje czasy parametrach technicznych. Był inżynierem-wizjonerem, niespokojną duszą, pełnym pomysłów geniuszem technicznym. Polskim Teslą.

Żołnierz batalionu “Zośka” Szarych Szeregów, w plutonie „Alek” (służył w jednym plutonie z Krzysztofem Kamilem Baczyńskim), uczestnik Powstania Warszawskiego, trzykrotnie odznaczony Krzyżem Walecznych.

Po studiach na Politechnice Warszawskiej, w 1951 roku podjął pracę w zakładach „Warel”, produkujących urządzenia elektroniczne na potrzeby wojska. Skonstruował tam automatyczny nadajnik krótkofalowy o mocy 2 kW NPK-2, używany do łączności z ambasadami.

AAH

Pierwszym samodzielnym dziełem Karpińskiego był AAH czyli Analogowy Analizator Harmonicznych. Po tą nazwą kryje się lampowe urządzenie do rozkładu dowolnych krzywych ciągłych na składowe harmoniczne, czyli znana wszystkim inżynierom transformata Fouriera. Krzywa ciągła jest przedstawiana jako superpozycja przebiegów sinusoidalnych o różnych częstotliwościach. Taką krzywą można analizować matematycznie (w tym statystycznie) dużo łatwiej niż skomplikowaną krzywą wyjściową. AAH został skonstruowany w 1957 roku w Instytucie Maszyn Matematycznych i Instytucie Podstawowych Problemów Techniki PAN (IPPT), gdzie Karpiński był adiunktem. Maszyna od razu znalazła zastosowanie w WIHM (Wojskowy Instytut Hydrologiczno-Meteorologiczny), w powołanym w 1956 roku Zakładzie Długoterminowych Prognoz Pogody, poprawiając dokładność prognoz o kilkanaście procent. Wartym odnotowania jest fakt, że było to pierwsze tego rodzaju urządzenie w Europie.

AAH umożliwiał tworzenie statystycznych modeli długoterminowych do przygotowania prognoz średniej miesięcznej temperatury powietrza i sumy opadów atmosferycznych dla Warszawy.

W 1965 roku w raporcie Światowej Organizacji Meteorologicznej (WMO) opublikowano artykuł „Statistical methods in long-range weather forecasting” (Statystyczne metody w długoterminowym prognozowaniu pogody) opisujący analizator AAH i prezentujący efekty jego pracy.

Analizator AAH był zbudowany z 650 lamp próżniowych, miał wymiary 2×1,5 metra. Nie był to oczywiście klasyczny komputer, ale, jak mówił sam Karpiński „zaawansowany procesor obliczeniowy”. Niestety, nie możemy go zobaczyć, uległ zniszczeniu w trakcie transportu.

Ryc. 1 Jacek Karpiński przy maszynie AAH (fot. Lucjan Fogiel)

AKAT-1

Drugim, równie przełomowym dziełem Jacka Karpińskiego był analogowy analizator równań różniczkowych. Analizator jako taki nie był pionierskim wynalazkiem, lampową wersję tego urządzenia ARR stworzył Leon Łukaszewicz już w 1954 roku, wielkości sporego pokoju. Karpiński wykorzystał tranzystory, a jego AKAT-1 sprawiał wrażenie współczesnej konsoli mikserskiej, a nie poważnego urządzenia do poważnych zastosowań. Przypomnijmy, że był rok 1959 (oficjalnie, bo według Karpińskiego AKAT-1 powstał w 1957). Co prawda pierwszy Sputnik już latał po niebie, ale, mikroelektronika była w powijakach, a tranzystor był zaledwie nowinką techniczną. Tu znowu dygresja. Pierwszymi polskimi germanowymi tranzystorami stopowymi były TC11–TC15, wyprodukowane w liczbie kilkunastu tysięcy egzemplarzy. Produkcja tranzystorów na większą skalę rozpoczęła się w 1960 roku. Były to serie TG1-TG5 i TG-70, a rok później TG10, TG20 i TG50. A więc Karpiński skonstruował AKAT-1 na bazie tranzystorów prototypowych, nieseryjnych. Seria tranzystorów TC11-TC15 została opracowana w oparciu o model tranzystora warstwowego TW w IPPT PAN kierowanym przez prof. Janusza Groszkowskiego, pioniera polskiej radioelektroniki. Groszkowski skonstruował pierwszy metalowy magnetron (lampę mikrofalową), który umożliwił Anglikom wykrywanie niemieckich samolotów, rozpracował też system sterowania rakiet V-2. Groszkowski był też kandydatem do nagrody Nobla za prace na temat generacji i stabilizacji częstotliwości.

Ryc. 2 Analizator Równań Różniczkowych AKAT-1. [Muzeum Techniki w Warszawie, Wikimedia Commons]

AKAT-1 był pierwszym na świecie komputerem biurkowym. Wzornictwo (Ryc. 2) robi wrażenie, prawda? Nic dziwnego, jest dziełem plastyków ze słynnego Zakładu Artystyczno-Badawczego Akademii Sztuk Pięknych w Warszawie. W tych czasach, a przypomnijmy, że były to lata pięćdziesiąte, komputery były kompleksem szaf, umieszczonych w ogromnych, klimatyzowanych pomieszczaniach. AKAT-1 przypominał normalny, współczesny komputer desktopowy z konsolą sterującą, ekranem i urządzeniem drukującym wyniki obliczeń. I jak tu nie napisać, że Jacek Karpiński był wizjonerem? AKAT-1, wyprodukowany w jednym egzemplarzu, zachował się i jest obecnie prezentowany w Muzeum Techniki w Warszawie (teraz: Narodowe Muzeum Techniki).

Tak w 1963 roku AKAT-1 był opisywany przez dziennikarza Marka Sadzewicza:
Przyciski oznaczone znakami matematycznymi, szklany ekran jak w telewizji, na ekranie pokazuje się układ współrzędnych i graficzny przebieg funkcji matematycznych. AKAT-1 był maszyną analogową, która wykonywała niezmiernie doniosłe zadanie: wiązała matematykę z rzeczywistością (…) Ogniste zygzaki na szklanym ekraniku mówią, że istnienie jest ruchem i że konkrety można wyobrazić w abstrakcji.”

AKAT-1 był przepustką dla młodego Karpińskiego do nagrody dla młodych talentów UNESCO (miał wtedy 33 lata). Został jednym z sześciu laureatów, którzy otrzymali roczne stypendium w wybranej uczelni. Jacek Karpiński wybrał Harvard, gdzie przez rok pracował w laboratorium zajmującym się badaniami nad sztuczną inteligencją. Przebywał też na MIT (Massachusets Institute of Technology), spotkał się z Johnem Eckertem – konstruktorem ENIAC-a oraz Edwardem Moorem – pionierem badań nad sztuczną inteligencją. Przypomnijmy jeszcze raz, był to początek lat sześćdziesiątych. Propozycje pracy w Stanach Zjednoczonych odrzucił, w tym ofertę pracy w Los Alamos. Tak o tym pisał w 2007 roku:

Przyjmowano mnie jak króla. Byłem tym zresztą bardzo onieśmielony. Miałem zaledwie trzydzieści kilka lat. Po studiach poprosiłem o możliwość odwiedzenia całej długiej listy firm i uczelni. UNESCO zgodziło się. W Caltechu witał mnie rektor ze wszystkimi dziekanami, w Dallas – burmistrz miasta. I wszyscy chcieli, żebym dla nich pracował, począwszy od IBM, a skończywszy na uniwersytecie w Berkeley. W San Francisco proponowano mi nawet stworzenie własnego instytutu„.

Uczciwość przekazu wymaga, aby wspomnieć o współpracy Karpińskiego z polskim wywiadem technologicznym.

Perceptron

Zafascynowanie sztuczną inteligencją szybko przyniosło owoce. Jacek Karpiński skonstruował perceptron. Była to sieć neuronowa, która potrafiła się uczyć. Perceptron Karpińskiego był drugim tego typu urządzeniem na świecie.

Perceptron to najprostsza sieć neuronowa, składająca się z jednego lub więcej niezależnych neuronów McCullocha-Pittsa. Urządzenie implementuje algorytm uczenia maszynowego nadzorowanego. Umożliwia klasyfikowanie parametrów wejściowych do jednej lub więcej klas, po uprzednim wytrenowaniu algorytmu na zbiorach testowych. To podstawy współczesnego uczenia maszynowego (ML).

Perceptron opracowany przez Jacka Karpińskiego w Pracowni Sztucznej Inteligencji Instytutu Automatyki PAN składał się z dwóch tysięcy tranzystorów i potrafił rozpoznawać obrazy otoczenia przekazywane przez dołączoną kamerę. Projekt perceptronu został niestety utrącony przez władze Instytutu z nieznanych powodów, a Karpiński odszedł z IA PAN.

KAR-65 i analizator zderzeń cząstek elementarnych

Jacek Karpiński przeniósł się więc do Instytutu Fizyki Doświadczalnej Uniwersytetu Warszawskiego i zajął się (nareszcie!) konstruowaniem komputerów cyfrowych. Jego pierwsze dzieło to KAR-65, wykonujący 100 tysięcy operacji zmiennoprzecinkowych na sekundę (był rok 1965!). Był to komputer asynchroniczny (nie posiadał zegara), wielokrotnie szybszy i tańszy od królujących wtedy w Polsce komputerów ODRA. A Karpiński nie byłby Karpińskim, gdyby nie znalazł dla niego zastosowania. Zastosowaniem komputera KAR-65 była analiza zdjęć zderzeń cząstek elementarnych. Profesor Jerzy Pniewski, współodkrywca hiperjądra, wybitny fizyk, był kierownikiem Katedry Cząstek Elementarnych w Instytucie Fizyki Doświadczalnej, jedynej instytucji w bloku wschodnim, która współpracowała z CERN. W ramach współpracy Instytut otrzymywał wielkie ilości zdjęć i danych obrazujących zderzenia cząstek elementarnych. Komputery ODRA nie nadawały się do ich analizy, były po prostu zbyt wolne. Stąd propozycja złożona Karpińskiemu i jego niesamowita konstrukcja KAR-65.

Ryc. 3 Jacek Karpiński przy konsoli komputera KAR-65 (źródło epcenter.com.pl)

Projekt i konstrukcja komputera trwały 3 lata. Do budowy wykorzystano polskie tranzystory TG40 i diody DOG-61 w ilości 65 tysięcy. Posiadał pamięć bębnową i system operacyjny opracowany przez samego Karpińskiego (był też programistą). Gabaryty KAR-65 były niewielkie: dwie szafki o wymiarach 1,7×1,4×0,4 metra, interfejs mieszczący się na biurku (Ryc. 3). Autorem projektu plastycznego był Stanisław Tomaszewski, współpracujący wcześniej z Jackiem Karpińskim przy maszynie AKAT-1. Prezentacja komputera odbyła się w 1968 roku w Zakopanem. Niestety, z przyczyn obiektywnych (brak dostępu do zachodnich podzespołów i technologii) urządzenie nie odniosło sukcesu komercyjnego. Zakłady „TEWA”, jedyny w Polsce producent zaawansowanych komponentów elektronicznych, “nie wyrabiały” z zamówieniami. To jednak była głęboka komuna, RWPG, priorytety, wojsko, zimna wojna. Krótko mówiąc, skończyło się na prototypie pracującym dla profesora Pniewskiego.

I co z tym K-202?

Wynalazki Jacka Karpińskiego były preludium, fazą przygotowawczą do dzieła jego życia – minikomputera K-202. Była to też porażka jego życia. Wyprodukowano zaledwie 30 sztuk. Dlaczego? Przyczyn było wiele, obiektywnych i ludzkich, różnych. Nie ma sensu wnikać. Warto tylko zacytować jednego z ówczesnych decydentów: „gdyby dało się stworzyć komputer wielkości walizki… już dawno zrobiliby to Amerykanie”. Komputer Karpińskiego nie miał praktycznie konkurencji pod względem gabarytów, osiągów i elastyczności konfiguracji, a porównywalne komputery PDP-11 firmy DEC Corp. były dużo większe. Miały za to zaplecze finansowe, technologiczne, informatyczne i marketingowe. Co z tego, że K-202 miał potencjał, ale to PDP-11 podbiły świat, a w tzw. demoludach produkowano nawet jego klony, oczywiście bez żadnej licencji, gdyż Polska była objęta embargiem COCOM. W Polsce były to maszyny MERA-60 produkowane przez Meraster w Katowicach. Smutne, że łatwiej (i taniej) było ukraść technologię wraz z oprogramowaniem systemowym i sklonować popularny sprzęt zachodni niż rozwijać własne, często lepsze, konstrukcje. Kradzieże technologii zachodnich były normą w krajach “demokracji ludowej”, były wręcz filarem rozwoju technologicznego. Zainteresowanych tematem odsyłam do opracowania Piotra R. Frankowskiego Wspólnota czerwieni na niniejszym blogu.

Ryc. 4 Jacek Karpiński prezentuje genialny, jak na owe czasy, komputer K-202 podczas targów Olimpia w Londynie (1971). Fot. Muzeum Techniki w Warszawie

K-202 był bezpośrednim przodkiem popularnego, zwłaszcza w ośrodkach akademickich, mikrokomputera MERA-400, jak na tamte czasy demona szybkości, z nowoczesnym systemem operacyjnym SOM-3 lub uniksopodobnym CROOK, szybkim kompilatorem Fortranu, pamięcią operacyjną 64k słów 16-bitowych i pamięcią dyskową (całe 2 megabajty).

Produkcji komputera K-202 zaprzestano przede wszystkim z przyczyn finansowych. Wszystkie podzespoły musiały być sprowadzane za dewizy z Anglii, a produkcja serii pilotażowej pochłonęła 3 miliony dolarów. Zjednoczenie MERA odmówiło finansowania, a Karpiński odmówił kontynuacji prac w oparciu o polskie podzespoły. Pozostał projekt i zespół pod kierownictwem głównego konstruktora Elżbiety Jezierskiej-Ziemkiewicz. To dzięki jej uporowi wrócono do projektu, zamieniając wszystkie podzespoły na polskie, włącznie z monitorami, drukarkami i jednostkami pamięci. Oraz, oczywiście, nowym oprogramowaniem. Produkcję powierzono zakładom ERA w Warszawie (później zmieniły nazwę na MERA). Ponieważ MERA już produkowała komputer MERA-300, nowy produkt nazwano MERA-400. Komputer MERA-400 był produkowany w latach 1976-1987, pracował we wszystkich polskich uczelniach, a z uwagi na wielozadaniowość i szybkość znalazł wiele zastosowań przemysłowych, między innymi do kontroli procesów technologicznych.

Na MERZE-400 tworzyłem swoją pracę magisterską – język symulacyjny do symulacji układów dynamicznych ciągłych – to taki rozwiązywacz/całkowacz układów równań różniczkowych. Trochę jak AKAT-1 Karpińskiego, ale w wersji cyfrowej, programowalnej. Powiem Wam, fajny był ten komputer.

Ryc. 5 MERA-400 (źródło: https://www.zabytki-techniki.org.pl/index.php/muzeum-sil-powietrznych-w-deblinie-wirtualny/172-elektronika/1162-mikrokomputer-mera-400)

Ciekawostka, specjalnie na potrzeby komputera MERA-400 napisano język programowania LOGLAN, wzorowany na języku Simula 67, pierwszym języku obiektowym. LOGLAN, jak wiele innych genialnych dzieł polskiej myśli technologicznej, został zapomniany, zespół rozpadł się, a jego twórcy porozjeżdżali się po całym świecie, robiąc kariery naukowe.

Dokończenie historii, jakże symbolicznej…

Jacek Karpiński popadł w niełaskę władz. W dramatycznych okolicznościach stracił pracę w zakładach MERA. Niepisany „wilczy bilet” zakazywał mu pracy w dziedzinie, w której był najlepszy. Wyjechał na Warmię, hodował drób i świnie. Po 1980 roku, mimo zmian politycznych nadal był na cenzurowanym, władze nie zgodziły się na objęcie przez niego kierowniczego stanowiska w Instytucie Maszyn Matematycznych. Wyjechał więc do Szwajcarii, gdzie pracował u Stefana Kudelskiego, producenta profesjonalnych magnetofonów NAGRA. Zaprojektował skaner ręczny Pen-Reader z funkcją optycznego rozpoznawania tekstu (OCR), który jednak nie przyjął się na rynku. Do Polski wrócił w 1990 roku, zostając doradcą w dziedzinie informatyki Leszka Balcerowicza i Andrzeja Olechowskiego. Zmarł 21 lutego 2010 we Wrocławiu.

Źródła:

  1. https://www.blog-wajkomp.pl/przesladowany-geniusz-o-ciekawym-zyciu-jacek-karpinski-aah/
  2. https://obserwator.imgw.pl/polska-na-mapie-historii-prognoz-dlugoterminowych/
  3. http://www.sztuka.net/palio/html.run?_Instance=sztuka&_PageID=855&_cms=newser&newsId=13485&callingPageId=854&_CheckSum=-1043189960
  4. http://digitalheritage.pl/2022/12/04/akat-1/
  5. https://www.rp.pl/nowe-technologie/art2792031-jacek-karpinski-komputerowy-prorok-skonczylby-90-lat
  6. https://www.blog-wajkomp.pl/polskie-komputery-okresu-prl-u-system-mera-400/
    oraz Wikipedia

Korelacja – fakty i mity.

Korelacja to statystyczna zależność między dwiema zmiennymi losowymi. Dlaczego losowymi? Dlatego, że wartości zmiennej losowej zależą od zdarzeń losowych. Przykładem zmiennej losowej jest na przykład dzienna liczba zachorowań na Covid-19. Pewne prawidłowości są oczywiście zauważalne ale nie można z całą pewnością przewidzieć, ile osób zachoruje jutro lub za tydzień.

Dodatnia korelacja oznacza, że wzrost jednej zmiennej spowoduje również wzrost drugiej i podobnie spadek jednej spowoduje spadek drugiej. Analogicznie, korelacja ujemna oznacza, że zmienne “poruszają się” w przeciwnym kierunku, wzrost jednej zmiennej powoduje spadek drugiej i podobnie spadek jednej spowoduje wzrost drugiej zmiennej. Analiza korelacji bardzo przydaje się w sektorze finansowym, handlu, epidemiologii, demografii i innych dziedzinach, gdzie zjawiska zachodzą w sposób nie końca przewidywalny.

Miarą wspomnianej zależności są współczynniki korelacji. Najbardziej znane z nich to współczynnik Pearsona i współczynnik Spearmana. Współczynnik Pearsona mierzy tylko zależność liniową natomiast “Spearmana” można też stosować do zależności nieliniowych. Współczynniki korelacji przyjmują wartości z zakresu (-1, +1). Wartość +1 to całkowita korelacja dodatnia, analogicznie zaś wartość -1 to całkowita korelacja ujemna.

Przyjmuje się, że współczynnik korelacji wyższy niż +0,5 lub niższy niż -0,5 świadczy o jej wysokiej jakości. Współczynnik korelacji z zakresu (-0,3 +0,3) to słaba korelacja, nieprzydatna do wyciągania wniosków.

Mit 1

Korelacja oznacza oczywisty związek przyczynowo-skutkowy.

To nieprawda. Korelacja może oznaczać, że zachodzi związek przyczynowo-skutkowy. Ale nie musi. Korelacja mówi nam tylko, jak silnie para zmiennych jest liniowo (lub nieliniowo) powiązana. Związek między dwiema zmiennymi może być pozorny i tak też to się nazywa: związek pozorny.

Przyczynowość to coś więcej niż korelacja. Przykładem przyczynowości jest zależność liczby spalanych kalorii od wysiłku włożonego w ćwiczenie/taniec/pracę fizyczną.

Podam (za 1.) przykład korelacji między sprzedażą lodów a sprzedażą okularów przeciwsłonecznych.  Wraz ze wzrostem sprzedaży lodów rośnie sprzedaż okularów przeciwsłonecznych.

Teraz, kiedy już znamy różnicę między korelacją a przyczynowością, przyjrzyjmy się pewnej słynnej (i prawdziwej) korelacji: Sprzedaż lodów w Nowym Jorku jest skorelowana z liczbą zabójstw. Korelacja jest prawdziwa, związku przyczynowego nie ma. Przecież lody nie zabijają ludzi. Przyczyną tego pozornego paradoksu jest trzecia zmienna, dodatkowy, nie zmierzony czynnik nieujęty w badaniu. To temperatura. Wzrost temperatury powoduje zwiększoną konsumpcję lodów, to jasne i oczywiste. Ta sama temperatura skłania ludzi do wychodzenia z domu, spacerów. Tym samym stanowią oni większą liczbowo pokusę dla złoczyńców, potencjalnych zabójców. Taką korelację nazywamy korelacją pozorną a wspomniana trzecia zmienna – czynnikiem zakłócającym.

Tak więc korelacja między lodami a zabójstwami jest prawdziwa, ale nie ma między nimi związku przyczynowo-skutkowego. Są za to dwa prawdziwe związki przyczynowo-skutkowe: temperatura->lody i temperatura->zabójstwa.  

Anegdotycznym przykładem korelacji nie będącej związkiem przyczynowo-skutkowym jest korelacja między liczbą bocianów na kilometr kwadratowy a przyrostem naturalnym na badanym obszarze. Bociany nie przynoszą dzieci (na pewno?), więc dlaczego korelacja jest prawdziwa? Dopiero trzecia zmienna (zakłócająca) przynosi odpowiedź. Zmienną zakłócającą jest rodzaj obszaru: miasto/wieś. Na wsi przebywa więcej bocianów niż w mieście, a przyrost naturalny naturalnie także większy.

Mit 2

Odpowiednio wysoki współczynnik korelacji dowodzi jej prawdziwości

Tak, pod warunkiem, że badana próba jest odpowiednio wysoka. Do badania jakości próbki służy współczynnik poziomu istotności czy też inaczej – niepewności. Wartość tego wskaźnika oznacza prawdopodobieństwo, że różnice w danych pomiarowych są dziełem przypadku. Dla przykładu: istotność 0,025 znaczy, że różnice czy też rozrzut danych jest przypadkowy z prawdopodobieństwem 2,5%, a 97,5%, że dane są rzeczywistym wynikiem pomiaru. W zależności od dziedziny badań przyjmuje się różne progi niepewności pomiaru, dla większości badań jest to 5% czyli 0,05. Do oznaczenia poziomu istotności stosuje się literę p lub też symbol alfa α.

Korelacja a koincydencja

Koincydencja to współwystępowanie które może dotyczyć zjawisk o różnym stopniu powiązania (w tym żadnym). Korelacja to rodzaj koincydencji dotyczącej zjawisk powiązanych. Nie każda koincydencja jest korelacją ale każda korelacja jest koincydencją. Ta różnica nie zawsze jest zauważana, jest też wykorzystywana do manipulacji i tworzenia nieprawdziwych teorii.

Nadużycia

Korelacja działa na wyobraźnię. Dlatego też jest używana jako argument (pseudo argument) przez różnego rodzaju naciągaczy, manipulantów i denialistów. Fałszywa korelacja jest bardzo często wykorzystywana do tworzenia fałszywych narracji ponieważ jest “naukowa”, sugestywna i trudna do obalenia bez znajomości tematu i aktualnych danych.

Jako przykład podam (za 3.) narrację antyszczepionkową zapoczątkowaną wpisem na Twitterze pewnego statystyka imieniem Marek, która “dowodzi”, że szczepionki zabijają. Jako przykład miało posłużyć województwo podkarpackie, a teza brzmiała: “niski poziom zaszczepienia ma związek z niską śmiertelnością”. Oczywiście, takie stwierdzenie, w dodatku podparte “autorytetem” statystyka Marka, zostało podchwycone przez czołowych antyszczepionkowców i wzmocnione do granic absurdu.

Ryc. 1 Wpis lekarza Basiukiewicza z 5 lutego 2022

Jako aktywni w tym okresie analitycy zareagowaliśmy natychmiast, “debunkując” rozrastającą się dezinformację. Łukasz Pietrzak, farmaceuta i analityk napisał: “Województwo podkarpackie miało trzeci z najwyższych wzrostów śmiertelności ogólnej. Najwyższy wskaźnik CFR i 4 miejsce w zgonach C19 przy najniższych zakażeniach”, załączając odpowiednie mapy. 13 lutego napisałem na Twitterze: “W 2. połowie 2021 liczba zgonów na Podkarpaciu na 100 tys. mieszkańców jest na 4. miejscu OD GÓRY po lubelskim, podlaskim i opolskim co nie jest żadnym powodem do chwały. Wręcz przeciwnie. Łączenie tego z proc. wyszczepienia jest nadużyciem i tworzeniem fałszywej korelacji”. W podobnym duchu wypowiadał się też Rafał Halik – epidemiolog.

  1. https://medium.com/@seema.singh/why-correlation-does-not-imply-causation-5b99790df07e
  2. https://www.naukowiec.org/wiedza/statystyka/poziom-istotnosci_705.html
  3. https://konkret24.tvn24.pl/zdrowie/zgony-a-szczepienia-na-podkarpaciu-tlumaczymy-dlaczego-to-tworzenie-falszywej-korelacji-ra1096102

Wykresy – jak nie zostać zmanipulowanym. Podsumowanie.

W pierwszych dwóch częściach cyklu Wykresy – jak nie zostać zmanipulowanym. i Wykresy – jak nie zostać zmanipulowanym cz. 2 przedstawiłem przykłady ilustrujące niektóre, najbardziej powszechne metody fałszowania wykresów.

Czas na podsumowanie i wnioski.

Inwencja fałszerzy jest nieograniczona. Repertuar manipulacji jest dużo szerszy i o wiele bardziej subtelny niż pokazałem. Ale nie o to chodzi, żeby stworzyć obszerny i dokładny katalog manipulacji, ale o to, aby “zaszczepić się” przeciwko tym manipulacjom.

Znajomość każdego “numeru” jest bronią. Pozwala, widząc dowolny wykres, zrobić błyskawiczne overview i, jeśli jesteśmy na prezentacji, zadać pytanie w rodzaju: “Panie Prelegencie, dlaczego oś Y zaczyna się 60-ciu a nie od zera?”.

Jakie elementy powinien zawierać wykres?
Jestem zdania, że każdy wykres, który może być wykorzystywany w oderwaniu od swojego kontekstu (artykułu, publikacji naukowej, prezentacji) powinien zawierać wszystkie elementy wymienione niżej. W czasach internetu i wszechobecnego kopiuj/wklej musimy się liczyć, jako autorzy wykresu, z użyciem naszej pracy bez podania kontekstu. W takim razie, jako odbiorcy, spodziewamy się tego samego, czyli wiarygodności wykresu bez podania jego oryginalnego kontekstu. A więc do rzeczy, wymieniam:

  • Tytuł wykresu, podtytuł, źródło danych
  • Opisy osi X i Y, jednostki miary
  • Legenda dotycząca poszczególnych nitek/słupków/plastrów wykresu
  • Identyfikacja autora wykresu, najlepiej w obszarze ciała wykresu (w interesie autora), “pożyczalscy” często wycinają wykres “pozbawiając go” autorstwa i prezentują jako swój
  • Dodatkowo, jeśli specyfika wykresu wymaga dodatkowych informacji, powinny być one umieszczone w obszarze wykresu
  • Kontekst prezentacji wykresu (wpis twitterowy, facebookowy) powinien opisywać, czego wykres dotyczy oraz, w miarę możliwości, tworzyć całościowy obraz. Wskazane jest, aby został podany link do oryginalnego kontekstu w celu umożliwienia odbiorcy dotarcie do całości materiału źródłowego.

Co powinno wzbudzić podejrzenia?
Przede wszystkim braki lub nieścisłości formalne, wymienione w poprzednim punkcie:

  • Brak tytułu lub tytuł niesatysfakcjonujący, niepełny, sugerujący interpretację, niewskazujący źródła danych
  • Brak opisów osi X, Y, brak jednostek
  • Nieuzasadnione ograniczenie zakresu osi Y
  • Nieliniowe skalowanie osi Y (np. logarytmiczne) bez uzasadnienia merytorycznego
  • Pomijanie niektórych danych, np. konkretnych lat, miesięcy, lat
  • Podejrzenie “cherry picking”, tzn. wybierania tych danych, które pasują do aktualnie lansowanej interpretacji
  • Brak ścieżki URL prowadzącej do oryginału publikacji zawierającej wykres wraz z obszernym kontekstem czyli uniemożliwienie dotarcia do materiału pozwalającego na wyciągnięcie własnych wniosków na dany temat

Czy zawsze powinniśmy być podejrzliwi?
Nie zawsze. Przecież istotą wykresu jest pomoc w zrozumieniu danych, ilustracja zjawiska, przewidzenie konsekwencji. Kolumny liczb nie przemawiają do wyobraźni przeciętnego odbiorcy. Dlatego, tworząc wykresy, uwypuklamy istotne dane, używamy kolorów, pogrubień, elementów graficznych. Ważne jest jednak, żeby nasze starania “podbicia” przekazu nie poszły zbyt daleko, w stronę przekłamania i manipulacji.

Wykresy w epoce mediów społecznościowych
Można, oczywiście, z pewną przesadą, powiedzieć, że żyjemy w erze postprawdy. Informacje, newsy, rozchodzą się jak błyskawica. Powstaje więc wielka pokusa publikowania fałszywych narracji. Ostatnio dotyczy to negowania pandemii, szczepień, ograniczeń pandemicznych. Wykorzystuje się fałszywe, ad-hoc wykreowane pseudoautorytety, sfałszowane badania. Wykresy jako składniki wpisów na Twitterze są często prezentowane bez kontekstu, opatrzone kłamliwym komentarzem. Mamy więc: prawdziwy wykres i nieprawdziwą interpretację. Czujność dotyczy więc nie tylko samego wykresu ale także otoczki słownej. W poprzednich odcinkach pokazałem metody fałszowania samych wykresów, ale powinniśmy traktować podejrzliwie cały przekaz: słowa i grafikę. Dlatego tak ważna są, opisane wcześniej, obowiązkowe elementy “porządnego” wykresu.