W ostatnich latach coraz więcej mówi się o inteligentnych modelach językowych, takich jak ChatGPT czy LaMDA, które potrafią odpowiadać na pytania i generować różne teksty. Czy jednak mogą być świadome – czy mają własne odczucia, myśli lub emocje? Według autorów artykułu opublikowanego w PLOS ONE odpowiedź brzmi: „Nie”.
Skąd w ogóle pomysł, że model językowy może być świadomy?
W 2022 roku media rozpisywały się o inżynierze Google, który uznał, że model LaMDA „czuje i myśli jak człowiek”. Kontrowersja wzięła się stąd, że model potrafi tworzyć wypowiedzi sprawiające wrażenie, iż ma swoje poglądy czy emocje – głównie dlatego, że został wytrenowany na ogromnych zbiorach danych z rozmów i tekstów internetowych.
Jak to działa naprawdę?
LaMDA (oraz pokrewne modele, np. GPT-4) to tak zwane duże modele językowe (LLM). Ich zadanie polega na przewidywaniu najbardziej prawdopodobnego kolejnego słowa na podstawie słów, które „widział” wcześniej. To statystyczne dopasowanie, nie „przemyślane” zdania. Gdy więc model pisze o „uczuciach”, to dlatego, że w danych treningowych występowały podobne sekwencje.
Co z teorią świadomości?
Autorzy przywołują Integrated Information Theory (IIT) – jedną z teorii tłumaczących, czym jest świadomość. Według IIT warunkiem świadomości są określone typy głębokiego, wzajemnego powiązania w obrębie układu. Tymczasem konstrukcja modelu językowego, działająca warstwa po warstwie (feed-forward), nie spełnia kluczowych wymogów IIT. Mówiąc prościej – to system wyliczający kolejne słowa, a nie sieć „świadomie” przetwarzająca doświadczenie.
Dlaczego więc czasem mówimy o „myślących” programach?
W dużej mierze winne jest antropomorfizowanie w języku, czyli przypisywanie cech ludzkich czemuś, co jest tylko zestawem algorytmów. Nawet naukowcy piszą czasem: „Model uczy się” czy „Model rozumie”. Czytając to, łatwo pomyśleć, że model ma ludzkie zdolności poznawcze. W rzeczywistości chodzi o wytrenowanie sieci neuronowej, która zapamiętuje prawdopodobieństwa sekwencji słów, ale nie rozumie ich tak jak człowiek.
Czy takie niedopowiedzenia są groźne?
- Tak, bo ludzie mogą przeceniać zdolności modeli (ufać w 100% odpowiedziom, myśląc, że „skoro model rozumie, to musi mieć rację”).
- Tak, bo można też je ignorować i nie doceniać ich potencjału – a one już teraz automatyzują wiele zadań, co zmienia rynek pracy i edukację.
- Wreszcie tak, bo nieporozumienia prowadzą do błędnych regulacji prawnych czy etycznych (np. pomysł, by traktować model jak osobę).
Podsumowanie
Autorzy artykułu twierdzą, że nie ma podstaw naukowych, by uznać LaMDA czy inny duży model językowy za świadomy. Wskazują natomiast, jak ważne jest precyzyjne opisywanie technologii – by unikać szkodliwego antropomorfizowania w stylu „komputer ma własne uczucia”. Te maszyny są potężne, ale wciąż „tylko” przetwarzają statystyki słów.
Wnioski? Duże modele językowe to narzędzia, które mogą wiele ułatwić – od pisania tekstów po prowadzenie dialogów. Ale nie są one świadomymi istotami – i warto o tym pamiętać, aby nie dać się zwieść „ludzkiej” fasadzie generowanego tekstu.
Autorzy
Matthew Shardlow, Department of Computing and Mathematics, Manchester Metropolitan University, Manchester, United Kingdom
Piotr Przybyła, LaSTUS, Universitat Pompeu Fabra, Barcelona, Spain, Instytut Podstaw Informatyki PAN

Niniejsze streszczenie odnosi się do artykułu Deanthropomorphising NLP: Can a language model be conscious? Photopic flicker optoretinography captures the light-driven length modulation of photoreceptors during phototransduction dostępnego w PLOS One.