Sztuczna inteligencja nie tylko zmienia rynek pracy. Podważa sam sens pracy, jaki znamy. O automatyzacji, edukacji, ruchach antynaukowych, korporacjach silniejszych od państw i świecie, który coraz bardziej przypomina cyberpunk rozmawiamy z prof. Dariuszem Jemielniakiem, wiceprezesem Polskiej Akademii Nauk, kierownikiem katedry MINDS w Akademii Leona Koźmińskiego i wykładowcą Berkman-Klein Center for Internet Society na Uniwersytecie Harvarda

Jesteśmy w momencie przełomowym dla cywilizacji czy raczej żyjemy w czasach, gdy marketing zatriumfował nad zdrowym rozsądkiem?

Prof. Dariusz Jemielniak: Jedno nie wyklucza drugiego. Na pewno jesteśmy w momencie bardzo ciekawym technologicznie, a jednocześnie jest w tym bardzo dużo kompletnej ściemy.

To, że połowa przedsiębiorstw, które twierdzą, że robią AI, wcale jej nie robi, albo że wyceny niektórych firm są kompletnie z kosmosu, może nam przysłonić fakt, że naprawdę dzieją się rzeczy, które mogą być transformacyjne. Nie tylko technologicznie, ale też społecznie.

Od ponad  tysiąca lat mamy system, w którym ludzie przez większość życia albo przez całe życie muszą pracować wykonując konkretne specjalistyczne zajecie, żeby coś dostać w zamian. Ta umowa może się zachwiać. I to jest ciekawsze niż sama zmiana technologiczna.

I to największa zmiana? 

Mamy narzędzia, które potencjalnie pozwalają zastąpić pracę większości ludzi. To jeszcze nie jest moment, gdy rzeczywiście wszystko robią, ale modele multiagentowe są już w stanie w dużej części wykonać pracę urzędnika w biurze albo w urzędzie miasta.

Jeśli zamiast zespołu 50 osób obsługujących dokumenty będziemy potrzebowali ich tylko kilku, to pojawia się pytanie: co zrobić z resztą? W administracji publicznej działa jeszcze pewien bezwład i logika etatu. Ktoś pracuje w urzędzie, więc prawdopodobnie nic mu się szybko nie stanie, ale w sektorze prywatnym takich zabezpieczeń będzie mniej.

Koniec końców nie uciekniemy od pytania, po co ludzie są zawodowo potrzebni. To będzie bardzo poważny moment konfrontacji z rzeczywistością.

Pojawiają się porównania do rewolucji przemysłowej. Zwolennicy AI mówią: kowale stracili pracę, ale pojawiły się inne zawody. Tyle że między utratą pracy a stabilizacją minęły dziesięciolecia. Teraz pójdzie szybciej?

Myślę, że dużo szybciej i obejmie dużo więcej zawodów. Dawniej można było powiedzieć: automatyzujemy przemysł, ale nadal potrzebni są ludzie, którzy tym przemysłem zarządzają. Teraz mamy robotyzację i bardzo szybki rozwój systemów opartych na AI. Myślę, że w ciągu dekady niemal każdy zawód, jaki możemy sobie wyobrazić, zostanie do pewnego stopnia zautomatyzowany.

Widzimy to już teraz w zawodach kreatywnych, w pracy białych kołnierzyków, ale też w zawodach technicznych i fizycznych. W tych ostatnich mniej nas to zaskakuje, bo automatyzacja już wcześniej zaszła daleko. Jednak nawet w rolnictwie wszystko, co wymaga wiedzy, koordynacji i reagowania na warunki, będzie coraz szybciej przejmowane przez rozwiązania AI. Wcześniejsza automatyzacja dotyczyła głównie powtarzalnych czynności w powtarzalnym środowisku. Teraz mówimy o systemach, które coraz lepiej radzą sobie z ogólnym rozwiązywaniem problemów.

Co to oznacza dla edukacji, skoro wiedzę przejmują maszyny?

Powszechny mit mówi, że do szkoły chodzi się po to, żeby się czegoś nauczyć. Uważam, że do szkoły chodzi się po to, żeby ludzie mniej się buntowali, umieli się zachować i byli w stanie przeczekać coś, co ich nudzi. Lekcje trwające 45 minut nie mają większego sensu z punktu widzenia skuteczności nauczania, ale są sensowne z punktu widzenia treningu społecznego.

Nie obawiam się więc, że AI radykalnie zmieni samą funkcję szkoły, choć takie narzędzia będą miały na nią ogromny wpływ. Jestem zwolennikiem technologii, które realnie pomagają się uczyć. Tworzę system InstaLing, który optymalizuje zapamiętywanie materiału przez dopasowanie powtórek do krzywej zapominania. Jeśli dokładnie wiesz, co w danym momencie powinieneś powtórzyć, a czego nie musisz, możesz zaoszczędzić nawet 80 proc. czasu. Korzysta z tego kilkanaście procent nauczycieli języków w Polsce.

To przykład, w którym algorytmika rozwiązuje konkretny problem edukacji. Tylko gdy spojrzymy na działania ministrów edukacji, to często widać raczej chęć pokazania czegoś namacalnego: kupienia tablic interaktywnych, wdrożenia widocznego programu. Użycie AI albo algorytmiki do tego, by dzieci lepiej opanowywały materiał, jest mniej efektowne.

Przez lata słyszeliśmy, że uniwersytety mają przygotowywać do zawodu, a filozofia czy historia sztuki są niedostosowane do rynku pracy. Teraz nagle okazuje się, że ogólne umiejętności mogą być bardziej odporne na AI niż nauka kodowania.

Samo kodowanie nigdy nie było bardzo trudną umiejętnością. To proces wypluwania z siebie ciągu znaków. I o ile Claude czy inne modele mogą robić samo kodowanie lepiej, o tyle tworzenie architektury oprogramowania to inna sprawa.

Miałem niedawno zajęcia z trzema grupami studentów, po trzydzieści kilka osób. To były zajęcia z biznesplanowania z ludźmi, którzy zasadniczo nie umieli kodować. Pracowaliśmy z Android Studio, Flutterem, Claude’em, GitHubem i Vercelem. Prosty setup do tworzenia aplikacji.

Większość nie wykładała się na kodowaniu. Wykładali się na kwestiach konceptualnych: jak podzielić pracę na etapy, jak stworzyć promptbook prowadzący przez kolejne okna kontekstowe, jak zaplanować strukturę projektu. Nawet jeśli wprost mówiłem, jak to zrobić, część osób nie była w stanie tego konceptualnie ogarnąć.

Rozumienie architektury nadal wydaje mi się podstawowym problemem. Dużo większym niż generowanie kodu. Ale to też może być problem krótkoterminowy, bo długoterminowo modele będą potrafiły adresować również naszą niezborność i niezdolność do precyzyjnego wyrażania myśli.

Czy zawsze będziemy uciekać do przodu i szukać kolejnych obszarów, w których ludzka wiedza jest jeszcze użyteczna? Czy technologia w końcu wyprzedzi nas we wszystkim?

To ciekawe pytanie. Warto spojrzeć na maklerów giełdowych. Był moment, w którym właściwie stracili kontrolę. Sam proces podejmowania decyzji stał się zbyt szybki dla człowieka i przejęły to algorytmy. Firmy wydawały setki milionów dolarów, żeby przenieść biura odrobinę bliżej giełdy i zaoszczędzić milisekundy na transmisji światłowodem.

Pytanie brzmi, czy nauka też nie stanie się grą algorytmów. To możliwe. Umiem sobie wyobrazić, że kiedy będę przechodził na emeryturę, fizyka będzie działała w maszynach na takim poziomie złożoności, że ludzie nie do końca będą rozumieli, skąd biorą się konkretne wyniki i dlaczego mamy jakąś konkretną teorię.

Paradoksalnie największe pole przetrwania widzę dla badaczy społecznych i humanistów. Humaniści tworzą dla ludzi, a badacze społeczni badają ludzi.

Oczywiście przy dużych zbiorach danych model zrobi wiele rzeczy lepiej, ale rozmowa, wywiad, etnografia, budowanie zaufania i rozumienie emocji drugiego człowieka nadal mają element, który odbywa się w ludzkim mózgu. Na razie nie jest oczywiste, że da się to w pełni zastąpić awatarem, choć w długim okresie trudno zgadywać.

Co jest dziś najciekawszym polem badania?

Ruchy antynaukowe, czyli to, dlaczego ludzie przestają wierzyć nauce, to fenomenalny temat. Z jednej strony gołym okiem widać nieprawdopodobne sukcesy nauki – każdy ma w domu urządzenia, które są jej owocem, a dzieci nie umierają już na polio. Z drugiej strony mamy ruchy antyszczepionkowe czy antyklimatyczne. Jednocześnie technologie bezprecedensowo napędzają bańki informacyjne.

Czy da się zahamować tę antynaukową falę?

Trudno zgadnąć, bo właściwie nie próbujemy jej zahamować. Gdybyśmy poważniej przyjrzeli się temu, co robią media społecznościowe, okazałoby się, że część rozwiązań już znamy. Problem polega na tym, że brakuje społecznej chęci wywierania presji. Ludzi to po prostu nie obchodzi. Dezinformacja? Owszem, to problem, ale przynajmniej mamy Facebooka za darmo.

Czyli wracamy do edukacji i pracy od podstaw?

Zawsze, kiedy nie mamy dobrej odpowiedzi, możemy powiedzieć, że trzeba edukować i pracować od podstaw. Tylko że to jest pusta odpowiedź. Moim zdaniem nie mamy dobrego pomysłu, co z tym zrobić.

Na koniec: jak przeżyć w cyberpunku? Jak nie dać się zjeść korporacjom i jakoś uratować się w świecie, w którym AI zabiera nam kolejne kompetencje?

Najprostsza realna rzecz, jaką można zrobić, jest taka: trzeba być trochę ahead of the curve. Nie muszę być szybszy od rekina. Muszę być szybszy od człowieka, który też przed nim ucieka. Trzeba uczyć się modeli i ich obsługi. Lepiej być osobą, którą inni proszą o radę, jak używać nowych narzędzi, niż osobą, która próbuje dostać się do tych, którzy już to umieją. 

Przejdź do treści