Czy ChatGPT odbierze mi pracę?

ChatGPT to temat, który ostatnio dominuje nieomal w każdym zakątku internetu. Postanowiłem spojrzeć na ten fenomen z trochę innej perspektywy, niż robi to większość artykułów.

Czym jest ChatGPT?

Najlepiej, jeśli na to pytanie odpowie sam czat:

ChatGPT:

Jestem ChatGPT, sztuczna inteligencja stworzona przez OpenAI. Umiem rozumieć i generować teksty na podstawie dostarczonych mi danych treningowych. Mogę odpowiadać na pytania i wykonywać różne zadania związane z językiem naturalnym.

Co to znaczy? Posłużę się przykładem, zadaniem, które zleciłem czatowi:

Maciej Podgórski:
Opowiedz film Blade Runner jakby był skeczem Monty Pythona

ChatGPT:
W kosmicznym mieście Los Angeles, zwanym “Blade Runner”, detektyw Deckard (John Cleese) jest zmuszony do wykonania trudnego zadania – znalezienia i zneutralizowania buntowniczych androidów, zwanych replikantami.
Deckard (Cleese) spotyka różnego rodzaju androidy, które próbują go oszukać swoim ludzkim zachowaniem. W jednej scenie android (Michael Palin) próbuje sprzedać Deckardowi (Cleese) używanego robota sprzątającego, twierdząc, że to jest jego brat bliźniak.
W innej scence, Deckard (Cleese) przesłuchuje replikanta (Eric Idle) z zabawnymi pytaniami, takimi jak “Czy androidy marzą o elektrycznych owcach?”, co prowadzi do zabawnej wymiany zdań.
Na końcu, Deckard (Cleese) odkrywa, że jego przełożony (Terry Gilliam) jest sam replikantem. Zaskoczony Deckard (Cleese) mówi: “To jak ja mam rozpoznać prawdziwego człowieka, skoro nawet pan jest replikantem?!”

Robi wrażenie, czy nie? A może warto poprosić czat o sprzedanie samego siebie?

Maciej Podgórski:
Wymyśl coś, co będzie próbką Twoich najlepszych możliwości

ChatGPT:
“Załóżmy, że jesteś przedsiębiorcą, który chce stworzyć nowy produkt – inteligentnego asystenta domowego. Zanim jednak przystąpisz do projektu, potrzebujesz solidnego researchu rynku i analizy potrzeb klientów. Ja mogę Ci w tym pomóc. Poprzez przeanalizowanie setek tysięcy artykułów, badań i opinii konsumentów, mogę stworzyć dla Ciebie szczegółowy raport zawierający informacje o aktualnych trendach i potrzebach rynku, a także potencjalnych konkurentach i lukach w ofercie. Co więcej, mogę również przygotować dla Ciebie scenariusze funkcjonalności i interfejsu Twojego przyszłego produktu, aby upewnić się, że będzie on spełniał oczekiwania klientów i przyniesie sukces na rynku.”

W odpowiedzi na moje zadanie, czat przyjął rolę doradcy biznesowego. Czy to oznacza, że pomoc w osiągnięciu sukcesu komercyjnego powinna być najbardziej atrakcyjną cechą tej sztucznej inteligencji? Tytuł, który nadałem mojemu artykułowi, jest oczywiście dość prowokacyjny, ale w jakimś stopniu oddaje coś, co pojawia się w ludziach nieomal za każdym razem, kiedy ma miejsce jakiś przełom: lęk.

ChatGPT i przyszłość zawodów

Ci, którzy w jakiś sposób zetknęli się z programowaniem systemów komputerowych, być może wiedzą, że mimo iż robimy to już od wielu dziesiątek lat, to większości wypadków wciąż sprowadza się to do pisania znaków za pomocą klawiatury. Wymaga to wykwalifikowanych specjalistów, którzy najpierw przez wiele lat poznają języki programowania, uczą się ja pisać poprawny kod i co robić, aby unikać błędów, a później, przez resztę życia, tworzą kod, który wciąż trzeba poprawiać, a często wyrzucać do wirtualnego kosza i pisać od nowa. To tak trochę w krzywym zwierciadle, ale tylko trochę.

Czy ChatGPT to przełom w programowaniu? Niewątpliwie nie, bo wciąż jest to ta sama forma instrukcji komputerowych, ale tym razem możemy użyć języka naturalnego, aby opisać swój problem, a czat zaproponuje nam kod, który możemy użyć praktycznie od razu. Nadal nie będzie on bezbłędny, ale śmiało możemy założyć, że swoją jakością przewyższy możliwości większości deweloperów. A poza tym, dostaniemy go od razu i za darmo.

Jeśli autonomiczny samochód będzie popełniał mniej błędów od człowieka, to czy nie jest to wystarczający powód, aby wpuścić go na drogę? Jeśli w codziennej pracy programisty/sprzedawcy/menedżera/naukowca/dziennikarza/artysty (wstaw swoją rolę) użyję ChatGPT, aby zwiększyć swoją wydajność, to będzie to czynność z jakiegokolwiek powodu niewłaściwa? Jak wtedy moja wartość jako pracownika będzie zależeć od moich faktycznych umiejętności, a w jakim stopniu od tego, jak skutecznie użyję czatu jako narzędzia wspierającego w pracy? Ideą tego artykułu jest w głównej mierze uświadomienie sobie, jakie są odpowiedzi na te pytania.

Co rozumie sztuczna inteligencja

Czat jest przykładem systemu, który „rozumie” co do niego piszemy (lub mówimy), potrafi sensownie odpowiedzieć na nasze pytania i prowadzić nawet dość abstrakcyjne dyskusje. W jaki sposób „rozumie”? Na pewno nie jest to takie rozumienie, jakie znamy z naszego codziennego życia. Czat analizuje moje słowa, sprawdza ich kontekst i próbuje wygenerować odpowiedź, która w jego matematycznym modelu uzyskała najlepszy wynik dopasowania, wynikającego z wielu miesięcy szkoleń, jakie czat przebył wcześniej za pomocą ludzi. Czat uczy się od ludzi, na początku, ale potem może już uczyć się od samego siebie. Wyobraźcie sobie „rozmowę” dwóch ChatGPT: z jaką niesamowitą prędkością mogą się komunikować i jak ogromną liczbę „rozmów” mogą przeprowadzić w ciągu jednej sekundy (film „Her”: https://www.imdb.com/title/tt1798709/reference/)?

Świadomość

Rozmawiając z ChatGPT, można odnieść wrażenie, że rozmawiamy z kimś, kto bardzo dobrze rozumie, co do niego piszemy. Jak wypadłby w teście Turinga? Czy taki system może w pewnym momencie stać się świadomym i co to tak naprawdę znaczy? Mimo znaczących postępów w poznaniu naszego mózgu i umysłu nadal nie mamy pojęcia czy świadomość jest efektem emergencji odpowiednio skomplikowanych systemów fizycznych, czy może jest fundamentalnym elementem wszechświata. Ta druga opcja wydaje się nierzeczywista, ale to właśnie ona zaczyna zbierać ostatnio coraz więcej zwolenników.

Jak rozpoznać czy ktoś/coś jest świadome, skoro nie wiemy, czym jest świadomość? Skąd wiem, że mój kolega w pracy jest świadomy? Myślę, że jest świadomy, ponieważ sprawia takie wrażenie, zachowuje się podobnie jak ja, a co do własnej świadomości przecież nie mam wątpliwości. A co jeśli faktycznie tylko sprawia takie wrażenie, a w „środku” nie ma nic (argument zombie: https://en.wikipedia.org/wiki/Philosophical_zombie)? Czy byłaby dla mnie jakakolwiek różnica, gdyby był świadomy naprawdę lub doskonale tę świadomość emulował?

Takie pytania można odnieść do systemu sztucznej inteligencji, jakim jest ChatGPT. Czy powinniśmy i kiedy?

Mały krok dla sztucznej inteligencji, wielki skok dla ludzkości

Sztuczna inteligencja rozwija się niesamowicie szybko. Wydaje mi się, że ChatGPT rozpoczął nowy etap w erze informacji i nieuchronnie zbliżamy się z gigantyczną prędkością do przełomu technologicznego, jakiego nie było jeszcze w historii ludzkości. GPT4, który ma szansę pojawić się jeszcze w tym roku, udowodni jakie niesamowite tempo ma ewolucja systemów opartych o sieci neuronowe. To ogromna szansa i zagrożenie jednocześnie. Ucieczki już nie ma, lawina ruszyła, kilka następnych lat zdefiniuje na nowo siłę i szansy ludzkości lub je zaprzepaści. Chcąc nie chcąc, będziemy tego świadkami. Czyż to nie ekscytujące?

Udostępnij wpis

21 thoughts on “Czy ChatGPT odbierze mi pracę?

  1. Z tego, co widzę, słabymi stronami AI są na razie ironia, humor i oczywiście metafory. Jeżeli sztuczna inteligencja zacznie ogarniać te aspekty tekstu, to faktycznie, zacznę się bać o swoją pracę.

  2. “Jak wtedy moja wartość jako pracownika będzie zależeć od moich faktycznych umiejętności, a w jakim stopniu od tego, jak skutecznie użyję czatu jako narzędzia wspierającego w pracy?” – No przecież skuteczne użycie narzędzia (niech to i będzie sztuczna inteligencja) w pracy też jest “zawodową” umiejętnością. Ale to ja, wykonujący ową pracę muszę zdefiniować jej cel i zgodnie z nim zadaniować ową sztuczną inteligencję. W tym mnie ona nie zastąpi. A rozmowa ze sobą dwóch ChatGPT ? A po co im to? Owszem, można sobie wyobrazić, że w ramach nadanego im (przez nas, ludzi) zadania doskonalenia swych umiejętności w służeniu nam będą się ze sobą łączyć i wymieniać informacje / doświadczenia. Ale czy to będzie prawdziwa “rozmowa”? To my ludzie stawiamy przed sztuczną inteligencją zadania, ona sama tego nie zrobi. No, chyba że znajdzie się jakiś psychol, który postawi jej zadanie zniszczenia ludzkości – wtedy będzie problem. Ale póki co – taki straszny scenariusz nie męczy mnie w koszmarach nocnych, tak jak i nie śnię o wojnie z zombi. Wracając zaś do pytania postawionego na początku artykułu: Dopóki sztuczna inteligencja nie zacznie sobie sama zadawać pytania jak to jest z tymi czarnymi dziurami, czy rzeczywiście świat dobrze opisuje teoria strun, czy nasz pies ma uczucia (najpierw zresztą musiała by sama rozumieć czym są uczucia, nie tylko ich objawy), a chociażby dopóki nie zachwyci się pięknem róży i z tego zachwytu nie zdecyduje – trzeba istnienie róż chronić – dopóty nie zastąpi ona człowieka, a tylko będzie jego sługą. Fakt, że bardzo sprawnym, ale to że sługa potrafi określone, nakazane mu prace wykonać, a jego pan tego nie potrafi, nadal nie czyni sługi panem, bo to nie on decyduje które prace mają zostać wykonane.

    1
    • W komentarzu pojawiło się kilka interesujących stwierdzeń i pytań, które, aby móc przyjrzeć się im bliżej, potrzebowałyby tak naprawdę kolejnego artykułu. Wybrałem więc jedną kwestię, nad którą postanowiłem się pochylić, a która wydała mi się bardzo ciekawa.
      Konwersacja między dwiema sztucznymi inteligencjami i pytanie, czy taka rozmowa jest „prawdziwa”.
      Czy możemy rozmowę potraktować jedynie jako komunikację opartą na języku naturalnym? Jeśli tak, co wtedy z przypadkiem, kiedy „rozmawiają” dwie osoby w zupełnie niezrozumiałych dla siebie językach? Może powinniśmy dodać dodatkowe warunki, np.: wymaganie zrozumienia rozmówcy, a może nawet potrzebę, aby obie strony konwersacji były świadome. Jeśli rozumienie określimy jako mapowanie języka na określone struktury w umyśle (lub w programie komputerowym), to przy braku jasnej definicji świadomości i możliwości rozstrzygnięcia kto lub co ją posiada, stoimy przez przynajmniej potencjalnym wnioskiem, że rozmowa między sztucznymi inteligencjami może być „prawdziwa”. Nadal jednak pozostaje kwestia, którą poruszyłem w przypadku omawiania świadomości — co jest bardziej wartościowe: „prawdziwa” świadomość, czy ta idealnie emulowana i przenosząc to pytanie do tematu komunikacji: „prawdziwa” rozmowa, czy coś, co spełnia wszystkie wymagania jej „prawdziwości”, ale nadal jest tylko symulacją.
      To pytanie o wartościowanie może brzmieć jak pozbawione sensu, ale wydaje mi się, że w wyniku rozwoju AI, będzie pojawiać się coraz częściej, w miarę jak „emulowane” byty będą stawać się stronami w obszarach moralności. Kłaniają się tutaj obie części Bladerunnera (do którego nieprzypadkowo odniosłem się w moim artykule), gdzie jednym z pokazanych przez te filmy problemów jest kwestia istnienia praw istot świadomych, stworzonych przez człowieka. Podczas gdy w pierwszej części skupiono się głównie na androidach, to w sequelu sięgnięto jeszcze dalej, analizując te aspekty w stosunku do postaci wirtualnej (Joi). Wydaje się, że to science fiction jest już nieomal na wyciągnięcie ręki. Czy jesteśmy na to gotowi?

      • Ja jeszcze odnośnie “rozmowy”.

        Znow, wszystko zalezy od definicji.
        Jesli za rozmowe uznamy “komunikacje (jakąś) między dwoma etities” to jasne, będzie to rozmowa.

        Niemniej mamy bardziej szczegolowe określenia na opisanie powyzszej sytuacji.
        Dwie osoby “rozmawiajace” między sobą w zupelnie obcych sobie, niezrozumialych jezykach, prowadzą MONOLOG.
        DIALOG zaczyna sie dopiero wtedy, kiedy zadna ze stron wysluchuje tego, co mowi strona przeciwna, ze zrozumieniem. Tak, wiem, to nie jest częsta sytuacja między ludzmi, niemniej jednak ma miejsce.

        A samoświadomość to jeszcze coś innego i wbrew pozorom wcale nie ma tutaj przejscia zerojedynkowego. Z jednej strony bowiem podejrzewa sie, ze pewne zwierzęta posiadaja samoswiadomosc (chociaz znow, kwestia definicji tutaj wchodzi na wokandę bo czy np. test lustra niezbicie udowadnia, ze mamy do czynienia ze samoswiadomoscia?), a z drugiej ciężko upośledzone jednostki gatunku homo sapiens takiego testu nie zdają.

  3. Dziwne, ze autor tekstu nie wyjasnil, ze chatGPT nie jest “sztuczną inteligencją” tylko Large Language Model. Jego “uczenie się” jest oparte na algorytmach napisanych przez człowieka, a sednem tego “uczenia się”, po zapewnieniu odpowiednio dużej ilości “materiałów treningowych”, jest wybieranie najbardziej prawdopodobnych odpowiedzi. Czyli takich, ktore wystapily w “materialach szkoleniowych” najczęściej w danym kontekscie.

    To nadal nie jest żadna inteligencja, tylko narzędzie, a jego limity dobrze widać kiedy zada się pytanie dotyczące programowania wlasnie.
    Mozna wtedy zauwazyc, ze kod, który pojawił sie w odpowiedzi, zawiera najczesciej spotykane błędy (np. z stackoverflow). A chatGPT nie potrafi tego zdebugować.

    • ChatGPT spełnia warunki określone przez definicję sztucznej inteligencji:

      Fragment:
      Artificial intelligence (AI) is intelligence—perceiving, synthesizing, and inferring information—demonstrated by machines, as opposed to intelligence displayed by non-human animals and humans. Example tasks in which this is done include speech recognition, computer vision, translation between (natural) languages, as well as other mappings of inputs.
      Całość:
      https://en.wikipedia.org/wiki/Artificial_intelligence

      Definicja AI jest dość szeroka, co w głównej mierze wynika z obszernej definicji inteligencji jako takiej.
      Gdyby limity, czy popełniane błędy miały świadczyć o realności inteligencji, to żadnego człowieka na Ziemi nie moglibyśmy nazwać inteligentnym 😉

      • Tak, ta definicja jest zbyt szeroka, na tyle szeroka, ze obejmuje niemalze wszystko, co czyni ją dość bezużyeczną.
        IMHO gdybym chciala wyjasniac, czym chatGPT jest, zaczelabym od innego hasla w Wikipedii, tego: https://en.wikipedia.org/wiki/BLOOM_(language_model)

        ChatGPT nie popelnia “sam ze siebie” (ze tak to określę) błędów, on tylko powiela te juz popelnione przez czlowieka, ktore znajduja sie w materialach “szkoleniowych” czyli big data, którą chatGPT jest karmiony. To soft, ktory przetwarza wielkie ilości danych, robiąc to w taki sposób, ze stwarza zludzenie “inteligentnej” konwersacji.

        Z jednej strony masz racje, ze “Gdyby limity, czy popełniane błędy miały świadczyć o realności inteligencji, to żadnego człowieka na Ziemi nie moglibyśmy nazwać inteligentnym” ale z drugiej jak wszyscy wiemy, IQ jest stopniowalne a jego rozklad dla populacji ludzkiej jest, jaki jest – więc to troche porownywanie ziemniakow z pomaranczami tj. populacji ludzi wybierajac sobie z niej kogos z niskim IQ do sztucznego modelu językowego opartego na algorytmach i probabilistyce.

  4. Bardzo ciekawy artykuł. Z jednym twierdzeniem nie mogę się zgodzić, mianowicie, że AI zaproponuje nam błyskawicznie gotowy, wysokiej jakości kod – ZA DARMO. No chyba, że będzie umiała sprokurować kod na zastąpienie kapitalizmu ustrojem nie opartym na zysku.

    • Mam wrażenie, że internet to tygiel kapitalizmu i socjalizmu, a także pewnie kilku innych ideologii. W jego historii dało się zauważyć, że kiedy powstawały świetne rozwiązania oparte na open source, prędzej czy później znajdował się ktoś, kto próbował temat monopolizować (skutecznie lub mniej) i zarabiać na tym pieniądze. Jednocześnie jednak miało miejsce coś odwrotnego — na każde komercyjne rozwiązanie pojawiała się odpowiedź propagatorów rozwiązań darmowych.
      Myślę, że ChatGPT i AI w ogólności czeka podobny scenariusz. Open AI dość sprytnie testuje rynek, aby potem wprowadzić komercyjną ofertę, dopasowaną do potrzeb użytkowników za pomocą okresu próbnego.

      Nieuniknione jest też powstanie klonów ChatGPT, wywodzących się z tego samego źródła, ale także bytów stworzonych na zupełnie innych zasadach. Myślę, że w całkiem niedalekiej przyszłości (szacuję na 3 do 5 lat) każdy z nas będzie mógł ściągnąć sobie takiego ChatGPT na swój komputer i używać do własnych potrzeb.
      To, co dziś oferuje AI, będzie dostępne publicznie, ale wybrane gałęzie użytkowania AI będą komercjalizowane.

      Nie da się ukryć, że aktualne możliwości takich systemów i te, jakie owe systemy będą posiadały za 3-5 lat będzie dzielić przepaść. Ten trend było widać już w okresie ostatnich lat, a wydaje mi się, że tego wzrost będzie jedynie przyśpieszał.

  5. Temat AI jest olbrzymi. W zasadzie powinien u Was powstać cały dział rozpatrujący to zagadnienie we wszystkich aspektach. Wydaje się, że do tego cyku dyskusji niezbędna byłaby obecność Marcina Czerwińskiego, miłośnika Lema, który w dziesiątkach publikacji zajmował się tym zagadnieniem, tak beletrystycznie np. Rozprawa, czy bardziej naukowo np. “Summa technologiae”.
    Co do ChatGPT, to trzeba sobie zadać pytanie, czemu to ma służyć – uwolnieniu człowieka od żmudnych zadań np. informacyjnych, zapocenia Muska przy udowadnianiu ilości fejkowych kont, czy wygraniu wyborów prezydenckich w USA. Wszystkie one dają szansę na utratę pracy, bo tak między nami mówiąc, niewiele jest dziedzin i stanowisk pracy, których nie dałoby się zastąpić człowieka robotem. zaopatrzonym w sztuczną inteligencję. Tylko co z popytem takiej AI na różne dobra? Też wszczepić? 🤔

    1
  6. Dziękuję za wywołanie😔! Ja uważam, że najbliżej do opisu dzisiejszej AI był Lem w Golemie XIV, który przemawia do ludzkości z poziomu wiedzącego wszystko “superrozumu”. To temat na osobny esej. Trzeba też wspomnieć o Elektrybałcie z Cyberiady. Ten sztuczny poeta miał układać wiersze, ale , jak przekonał się jego twórca Trurl, mógł to robić tylko po zapoznaniu się z literacką spuścizną całej cywilizacji. I po przeczytaniu wszystkiego, co było do dyspozycji, zaczął pisać znakomite wiersze.

    • Nie mówiąc już o Demonie Drugiego Rodzaju, który jest magiczny, termodynamiczny, nieklasyczny i statystyczny. 🤣

      Lem był wielki.

      1
    • Ja tylko zwrócę uwagę, że Trurl i Klapaucjusz byli produktami ewolucji uniezależnionych od bladawców robotów, czyli w ich przypadku mamy do czynienia z próbami zbudowania sztucznej inteligencji przez sztuczną (choć już autonomiczną) inteligencję.

      2
  7. Zapytałem Pinokia.

    Nie, ChatGPT nie odbierze pracy człowiekowi. Jako system sztucznej inteligencji, ChatGPT ma swoje zastosowania i może być przydatny w wielu dziedzinach, takich jak przetwarzanie języka naturalnego, automatyczna analiza tekstu, automatyczne tłumaczenia, itp. Jednakże, wciąż wymagane są umiejętności, które są wyjątkowe dla ludzi, takie jak empatia, kreatywność i innowacyjność. Ponadto, ChatGPT jest narzędziem i może działać jedynie na podstawie danych, które zostały mu dostarczone, natomiast ludzie mają zdolność do zdobywania nowych informacji i doświadczeń. W związku z tym, ChatGPT może pomóc ludziom w ich pracy, ale nigdy nie zastąpi ich całkowicie.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *