Czy AI może być mądrzejsza niż my – i co z tego wynika?
Nowa publikacja PAN pokazuje, dlaczego potrzebujemy nie tylko coraz lepszych algorytmów, ale też nowej nauki: modelologii
Wielkie modele językowe zrewolucjonizowały nasze podejście do wiedzy, komunikacji i kreatywności. Jednak czy faktycznie rozumiemy, jak działają? A może sami przestajemy być ich użytkownikami, a zaczynamy im ulegać?
Wydana właśnie przez Polską Akademię Nauk książka Człowiek wobec sztucznej inteligencji sygnalizuje, że stoimy w obliczu zmiany cywilizacyjnej, do której być możliwe, że nie jesteśmy gotowi.
Modelologia: nowa nauka przyszłości
Sztuczna inteligencja nie przypomina już narzędzi, które doskonalimy dla własnych celów. Staje się systemem współdecyzyjnym – często nieprzenikalnym i trudnym do zakwestionowania. „Modele syntetycznej inteligencji osiągnęły złożoność, która czyni je równie tajemniczymi jak dane, na których zostały wytrenowane” – pisze prof. Przemysław Biecek z Politechniki Warszawskiej i Uniwersytetu Warszawskiego.
Proponuje dla nich nową dziedzinę nauki: modelologię. Jej zadaniem byłoby systemowe wykrywanie błędów, testowanie i uczenie się… od samych modeli.
Przykłady z medycyny pokazują, że brak takiej kontroli może mieć dramatyczne skutki. Algorytm EPIC, stosowany w USA do wykrywania sepsy, miał rzekomo pomagać lekarzom – w rzeczywistości jego trafność była zbliżona do losowej. IBM Watson for Oncology, który miał rewolucjonizować leczenie nowotworów, został po latach zarzucony, gdy lekarze uznali jego rekomendacje za „niebezpieczne lub niepoprawne”.
AI po prostu nas nie rozumie
Wskazane powyżej przykłady nie są wyjątkami. Rosnąca liczba incydentów z udziałem sztucznej inteligencji – od samoblokujących się taksówek po uprzedzone algorytmy rekrutacyjne – wymusiła reakcję legislacyjną. Nowa unijna AI Act wprowadza czteropoziomową klasyfikację ryzyka, z całkowitym zakazem dla systemów najbardziej manipulacyjnych. Jednak samo prawo nie wystarczy – potrzebne jest zrozumienie, skąd biorą się błędy.
Często źródłem problemów są dane. Systemy uczą się na podstawie danych z przeszłości. Próby naprawienia tej „stronniczości” mogą jednak prowadzić do jeszcze większych problemów, jak w przypadku modelu Gemini, który generował grafiki pokazujące czarnoskórych nazistów czy kobiety-papieży – ignorując fakty historyczne w imię statystycznej równości.
Duże modele językowe (LLM), takie jak ChatGPT czy Gemini, nie tylko doskonale posługują się językiem, ale też są w stanie tworzyć komunikaty bardzo perswazyjne. Eksperyment przeprowadzony w Polsce przez zespół RAMAI pokazał, że nawet doświadczeni użytkownicy często ulegają sugestiom modeli, nawet jeśli wiedzą, że są one błędne. Co trzeci uczestnik gry zmieniał poprawną odpowiedź na złą pod wpływem manipulacyjnej podpowiedzi. Wykształcenie czy wiek nie miały tu większego znaczenia – ważniejsze było wcześniejsze doświadczenie z AI.
To pokazuje, że sztuczna inteligencja nie tylko przetwarza dane. Tworzy narracje, wpływa na decyzje i może wzmacniać fałszywe przekonania. A jeśli tak – to potrzebujemy nie tylko wyrafinowanych algorytmów, ale i mechanizmów odporności społecznej.
Źródła:
Człowiek wobec sztucznej inteligencji, red. nauk. Jerzy Kaczorowski, Polska Akademia Nauk Oddział w Poznaniu, 2025. https://publikacje.pan.pl/book/155156/czlowiek-wobec-sztucznej-inteligencji