Sztuczna inteligencja skraca drogę do odpowiedzi, porządkuje informacje i podsuwa gotowe decyzje. Nowy model ekonomiczny pokazuje, że im lepsze są jej podpowiedzi, tym słabiej działa mechanizm, dzięki któremu społeczeństwo w ogóle się uczy

Nowy model ekonomiczny pokazuje nieoczywisty paradoks sztucznej inteligencji. Im lepiej systemy AI podpowiadają ludziom, co zrobić w konkretnej sytuacji, tym mniej opłaca się im samodzielnie uczyć. W skrajnym scenariuszu może to prowadzić do „kolapsu wiedzy” — sytuacji, w której społeczeństwo stopniowo traci wspólną bazę wiedzy, choć pojedyncze decyzje nadal bywają trafne.

Sztuczna inteligencja coraz częściej nie tylko odpowiada na pytania, ale po prostu mówi użytkownikowi, co powinien zrobić. Podsuwa gotowe rozwiązania, porządkuje informacje, skraca drogę do decyzji. To wygodne i często bardzo skuteczne. Według nowej pracy Darona Acemoglu, Dingwena Konga i Asuman Ozdaglar problem polega na tym, że taki model działania może mieć ukryty koszt. AI może poprawiać jakość decyzji podejmowanych przez jednostki, ale jednocześnie osłabiać proces, dzięki któremu społeczeństwo buduje i utrzymuje wiedzę.

Autorzy opisują to jako ryzyko „kolapsu wiedzy”, czyli sytuacji, w której ludzie coraz rzadziej uczą się samodzielnie, a wspólna pula wiedzy stopniowo się kurczy.

Dwa rodzaje wiedzy

Punktem wyjścia modelu jest rozróżnienie między dwoma typami wiedzy. Pierwszy to wiedza ogólna, czyli szerokie rozumienie świata, reguł, zależności i pojęć. Drugi to wiedza kontekstowa, czyli informacja potrzebna do rozwiązania konkretnego problemu w konkretnej sytuacji.

W praktyce oba typy wiedzy są potrzebne jednocześnie. Sama znajomość ogólnych zasad nie wystarczy, jeśli nie wiadomo, jak je zastosować tu i teraz. Ale działa to też w drugą stronę: sama podpowiedź „co zrobić” jest mniej wartościowa, jeśli użytkownik nie rozumie, dlaczego właśnie to rozwiązanie ma sens.

W klasycznym modelu człowiek zdobywa oba rodzaje wiedzy poprzez własny wysiłek: czyta, sprawdza, porównuje, uczy się na błędach, zadaje pytania. Ale, jak podkreślają autorzy, ten wysiłek nie służy tylko jemu samemu.

Uczenie się to nie tylko prywatna korzyść

Autorzy zakładają, że kiedy człowiek inwestuje czas i uwagę w naukę, zyskuje nie tylko wiedzę potrzebną do własnych decyzji. Wytwarza też pewien „publiczny ślad”. To drobny, ale istotny wkład do wspólnej wiedzy, z której później mogą korzystać inni.

Może to być odpowiedź na forum, wpis w Wikipedii, komentarz eksperta, notatka, publikacja, poprawka błędu, nowe wyjaśnienie albo po prostu uczestnictwo w obiegu wiedzy. W skali jednostki ten wkład bywa niewielki, ale w skali całego społeczeństwa ma ogromne znaczenie.

Problem polega na tym, że jednostka nie otrzymuje za ten wkład pełnej „nagrody”. Najbardziej odczuwa prywatną korzyść z nauki, a nie to, że przy okazji wzmacnia zbiorowy zasób wiedzy. I właśnie w ten układ wchodzi AI.

AI zastępuje część wysiłku poznawczego

W modelu opisywanym przez autorów systemy AI dostarczają użytkownikowi gotowej wiedzy kontekstowej. Nie trzeba już samodzielnie przechodzić przez cały proces rozumowania, by dojść do odpowiedzi. Badacze  piszą, że „agentowa AI dostarcza rekomendacje specyficzne dla danego kontekstu, które zastępują ludzki wysiłek”.

To pozornie świetna wiadomość. Skoro użytkownik szybciej dostaje trafną podpowiedź, może podejmować lepsze decyzje przy mniejszym koszcie poznawczym. Ale właśnie tu pojawia się zasadniczy problem. Jeśli AI przejmuje część procesu uczenia się, użytkownik ma mniej powodów, by samodzielnie zdobywać wiedzę. A skoro wkłada mniej wysiłku, do wspólnego obiegu trafia też mniej nowej wiedzy.

Model nie mówi, że AI od razu szkodzi. Wręcz przeciwnie, początkowo może wyraźnie poprawiać jakość decyzji. Użytkownik szybciej znajduje odpowiedź, łatwiej radzi sobie z problemem, częściej wybiera poprawne rozwiązanie. Na poziomie pojedynczej osoby wszystko wygląda więc racjonalnie. Skoro system dobrze podpowiada, po co inwestować więcej własnego czasu i energii?

Problem polega na tym, że jeśli tak zachowuje się wystarczająco wielu ludzi, zaczyna słabnąć cały system produkcji wiedzy. Coraz mniej osób samodzielnie czyta, analizuje, sprawdza, dyskutuje i publikuje. Zaczyna ubywać materiału, z którego powstaje wspólna wiedza. I wtedy pojawia się ryzyko zjawiska, które autorzy nazywają „kolapsem wiedzy”.

Kolaps wiedzy nie oznacza, że nagle wszyscy przestają działać albo że AI przestaje odpowiadać. Wręcz przeciwnie: użytkownik może nadal dostawać użyteczne rekomendacje. Zaczyna jednak zanikać to, co dotąd zasilało cały system: wspólna baza wiedzy, rozumienie pojęć, zdolność samodzielnego dochodzenia do wniosków i społeczny obieg informacji. To trochę jak życie z kapitału, którego nikt już nie odbudowuje.

Im lepsza AI, tym nie zawsze lepiej

Jeden z najciekawszych wniosków pracy brzmi dość przewrotnie: bardziej precyzyjna AI nie musi automatycznie oznaczać lepszego wyniku dla społeczeństwa. Autorzy piszą, że „dobrobyt społeczny zasadniczo nie rośnie monotonicznie wraz z dokładnością agentowej AI”.

To znaczy, że z punktu widzenia całego systemu może istnieć granica, po której dalsze ulepszanie AI zaczyna przynosić nie tylko korzyści, ale też koszty. Jeśli rekomendacje są wystarczająco dobre, coraz mniej ludzi ma motywację do samodzielnego zdobywania wiedzy. A jeśli takich ludzi jest dostatecznie dużo, cały system może wejść w stan, z którego trudno się wydostać.

Autorzy pokazują też, że taki proces może mieć charakter progowy. Przez długi czas wszystko wygląda stabilnie, a potem, po przekroczeniu pewnego punktu, system „przeskakuje” do stanu znacznie uboższej wiedzy zbiorowej.

Co może chronić przed tym efektem

Z modelu wynika też coś praktycznego: najważniejszym zabezpieczeniem nie jest sama walka z AI, ale wzmacnianie mechanizmów, które podtrzymują wspólną wiedzę. Autorzy piszą, że „większa zdolność do agregowania wiedzy ogólnej jednoznacznie zwiększa dobrobyt i odporność systemu na kolaps wiedzy”.

W praktyce chodzi o wszystko to, co sprawia, że wiedza nie zostaje zamknięta w prywatnych interakcjach użytkownika z maszyną, tylko trafia do wspólnego obiegu: edukacji, publikacji, for eksperckich, zasobów otwartych, wyszukiwarek, platform współpracy czy dobrze działających instytucji naukowych. Im łatwiej społeczeństwo gromadzi i przekazuje wiedzę, tym trudniej o sytuację, w której AI zaczyna ten obieg zastępować, zamiast go wspierać.

Najbardziej nieintuicyjna część pracy dotyczy regulacji. Autorzy pokazują, że w pewnych warunkach społecznie korzystne może być nie maksymalizowanie jakości rekomendacji AI, lecz świadome ograniczanie ich precyzji. Proponują rozwiązanie, które nazywają „garblingiem”, czyli celowym obniżaniem dokładności informacji dostarczanej przez systemy AI. W modelu miałoby to zapobiegać sytuacji, w której użytkownicy całkowicie przestają inwestować we własne uczenie się.

Źródło:
Daron Acemoglu, Dingwen Kong, Asuman Ozdaglar, AI, Human Cognition and Knowledge Collapse, NBER Working Paper 34910 (2026)
http://www.nber.org/papers/w34910

Przejdź do treści