Patrząc na górską ścieżkę, jezioro czy zatłoczoną ulicę, intuicyjnie wiemy, co możemy zrobić: pływać, chodzić, omijać przeszkody. Ale skąd mózg to wie? Badacze z Uniwersytetu Amsterdamskiego odkryli, że nasz mózg automatycznie to rozpoznaje. I robi to lepiej niż najbardziej zaawansowana sztuczna inteligencja

Kiedy patrzymy na nowe otoczenie intuicyjnie wiemy, jak możemy się w nim poruszać. Zespół badaczy z Uniwersytetu Amsterdamskiego postanowił sprawdzić, jak dokładnie mózg rozpoznaje afordancje, czyli możliwości działania, jakie oferuje środowisko.

Wyniki eksperymentów, opublikowane w czasopiśmie PNAS, ujawniają unikalne wzorce aktywności w korze wzrokowej.

„Chcieliśmy się dowiedzieć, czy kiedy patrzysz na scenę, widzisz głównie to, co się na niej znajduje – kolory, obiekty – czy też automatycznie rozpoznajesz, co możesz z nią zrobić” – wyjaśnia dr Iris Groen, neuronaukowczyni obliczeniowa i liderka zespołu.

W badaniu uczestnicy oglądali zdjęcia różnych przestrzeni – zarówno wewnętrznych, jak i zewnętrznych – leżąc w skanerze MRI. Każde zdjęcie oceniali pod kątem możliwych działań: czy można tam chodzić, jeździć rowerem, pływać, wspinać się albo żeglować. W tym czasie rejestrowano ich aktywność mózgową.

Mózg wie, co możesz zrobić
Zespół zauważył, że określone rejony kory wzrokowej aktywują się w sposób, którego nie da się wyjaśnić jedynie obecnością obiektów na obrazie. „To było coś wyjątkowego” – podkreśla Groen, dodając: „Widzimy, że mózg nie tylko rozpoznaje, co jest na obrazku, ale także, co można z tym zrobić – i to nawet bez świadomej intencji działania.”

Oznacza to, że rozpoznawanie afordancji to nie tylko koncepcja psychologiczna, ale mierzalna cecha działania ludzkiego mózgu. Co więcej, proces ten zachodzi automatycznie, nawet jeśli nie podejmujemy decyzji o działaniu.

AI w tyle za ludzkim mózgiem


Badacze porównali także zdolności ludzi do tych, które wykazują zaawansowane modele sztucznej inteligencji, w tym systemy rozpoznawania obrazów oraz GPT-4.

Wnioski? Modele AI wypadają znacznie gorzej w przewidywaniu możliwych działań w danym otoczeniu.

„Nawet najlepsze modele nie odpowiadają tak, jak ludzie – mimo że dla nas to bardzo intuicyjne zadanie” – zauważa Groen. „To pokazuje, jak głęboko nasze postrzeganie jest powiązane z interakcją ze światem fizycznym. Sztuczna inteligencja nie ma takiego doświadczenia, bo jej działanie ogranicza się tylko do środowiska cyfrowego”.

Nawet modele trenowane specjalnie do rozpoznawania działań nie generowały wzorców podobnych do tych, które obserwowano w ludzkim mózgu. Zdaniem autorów badania, to znacząca luka, którą można – i warto – wypełnić.

W stronę bardziej ludzkiej i oszczędnej AI

Groen zaznacza, że w dalszych badaniach nad sztuczną inteligencją kluczowe będzie, by maszyny potrafiły nie tylko rozpoznać, co widzą, ale także co można z tym zrobić – zwłaszcza w kontekstach takich jak robotyka ratunkowa czy autonomiczny transport.

„Obecne metody uczenia AI zużywają ogromne ilości energii i są dostępne głównie dla wielkich firm technologicznych” – dodaje badaczka. „Lepsze zrozumienie tego, jak działa nasz mózg – który przetwarza informacje szybko i oszczędnie – może pomóc tworzyć inteligencję bardziej zrównoważoną i przyjazną człowiekowi”.

Źródła:
Bartnik et al., Representation of locomotive action affordances in human behavior, brains, and deep neural networks, PNAS, vol. 122, no. 24. DOI: 10.1073/pnas.2414005122
Komunikat prasowy Universiteit van Amsterdam: https://www.uva.nl/en/shared-content/faculteiten/en/faculteit-der-natuurwetenschappen-wiskunde-en-informatica/news/2025/06/how-the-brain-sees-action-opportunities.html

Przejdź do treści