Wykorzystanie sztucznej inteligencji w celach naukowych wymaga głębokiej wiedzy i systemów dostosowanych do konkretnych zastosowań. Technologia się rozpędza, my jako kraj musimy nadążyć.

Świat zwariował na punkcie sztucznej inteligencji. Plany inwestycji w centra AI w USA, Europie i Azji przekraczają już bilion dolarów. Takie firmy jak OpenAI traciły setki milionów dolarów, wydając około 3 mld na trenowanie nowych modeli i około 2 mld na usługi, z których w połowie 2025 roku co tydzień korzystało 700 mln użytkowników. Mając 15 mln subskrypcji płatnych od 20 do 200 dolarów miesięcznie stać ich na udostępnianie wielu darmowych rozwiązań, od automatycznego tłumaczenia, wspomagania tworzenia aplikacji, po przewidywanie pogody. Google DeepMind udostępnia potężne narzędzia do tworzenia aplikacji, budowania wirtualnych światów, szukania informacji i analizy danych biologii molekularnej i medycyny.
Nauka też korzysta na tym szaleństwie. Po komunikacie Komisji Europejskiej z kwietnia 2018 roku większość krajów Europy podjęło wiele działań, ustanawiając nowe centra badawcze, związane z AI: 13 w Belgii, 11 w Finlandii, 9 we Francji, 12 w Hiszpanii, 11 w Holandii, 9 w RFN, 14 w Rosji, 11 w Szwecji, 14 we Włoszech. W Stanach Zjednoczonych powstało 29 Narodowych Instytutów Badawczych AI. Chiny i kraje arabskie przeznaczą na rozwój AI po 100 mld dolarów. Zjednoczone Emiraty Arabskie utworzyły rządową radę ds. rozwoju AI i technologii blockchain, której przewodniczący jest w randze ministra, a ministerstwa finansów, gospodarki, zdrowia, energii, edukacji, nauki, technologii są reprezentowane przez wiceministrów. W efekcie takich działań tysiące naukowców pomaga wdrażać technologie sztucznej inteligencji w różnych dziedzinach.

W Polsce powolna pobudka 

W 2018 roku powołaliśmy Polskie Porozumienie na rzecz Rozwoju Sztucznej Inteligencji (PP-RAI), mające na celu koordynację działań pięciu towarzystw: PTSN – Polskiego Towarzystwa Sieci Neuronowych, PSSI – Polskiego Stowarzyszenia Sztucznej Inteligencji, Polskiej Grupy ds. Uczenia Maszynowego, Polskiego Oddziału Towarzystwa Systemów, Człowieka i Cybernetyki IEEE (Institute of Electrical and Electronics Engineers) oraz Polskiego Oddziału Towarzystwa Inteligencji Obliczeniowej IEEE. Niestety, nie uzyskaliśmy realnego wsparcia, więc działalność PP-RAI ograniczyła się do organizacji międzynarodowych konferencji. Nasz system ewaluacji nie zachęca jednak do udziału w konferencjach, które nie przynoszą punktów za publikacje, więc zainteresowanym naukowcom trudno znaleźć fundusze na uczestnictwo.
Polska przespała ostatnie siedem lat i dopiero się budzi. Pod koniec 2020 roku uchwalono co prawda Politykę dla rozwoju sztucznej inteligencji w Polsce od roku 2020 (71 stron), ale nie utworzono żadnych nowych centrów naukowych (Ideas NCBR, zajmujące się badaniami i współpracą nauki z biznesem w obszarze AI, była spółką z o.o., którą w tym roku przekształcono w instytut badawczy Ideas).
Porównajmy naszą sytuację z innymi krajami Unii Europejskiej, z inwestycjami w ostatnich latach w nowe jednostki badawcze pracujące nad sztuczną inteligencją. Z technologii AI korzystają aż czterokrotnie częściej firmy z Danii czy Szwecji niż z Polski. Globalny indeks innowacji (Global Innovation Index, 2024), oparty na publikacjach i patentach, plasuje warszawski klaster naukowo-technologiczny na 90. pozycji na świecie, głównie dzięki patentom Samsung R&D Poland. Dane Eurostatu wykorzystania technologii AI w przedsiębiorstwach pokazują, że jesteśmy na końcu rankingu krajów EU, tylko przed Rumunią.
Na początku 2025 roku Ministerstwo Cyfryzacji opracowało dokument „Polityka rozwoju sztucznej inteligencji w Polsce do 2030 roku” (64 strony). Powstał on w oparciu o kilka opracowań, w tym raport Gdzie jest polska nisza AI i jak ją wykorzystać Polskiego Instytutu Ekonomicznego, Rekomendacji merytorycznych Grupy Roboczej ds. Sztucznej Inteligencji (GRAI) i kilku innych opracowań. Ministerstwo Obrony Narodowej ma swoją Resortową strategię sztucznej inteligencji do roku 2039. Czy jest nadzieja, by Polska stała się jednym z liderów „kontynentu AI”? Cele są ambitne, ale trudno będzie je osiągnąć. Nie inwestowaliśmy w rozwój kadry, nie mamy funduszy na rozwój AI porównywalnych z innymi krajami. Nikt nie wie, jak daleko zajdzie sztuczna inteligencja w ciągu następnych 2–3 lat. OpenAI przymierza się do głębokiej restrukturyzacji całych gałęzi gospodarki, ale planuje tylko na pół roku. W ostatnich miesiącach pojawiło się wiele zupełnie nowych pomysłów na budowę lepszych systemów, które będą mogły wykonywać coraz bardziej złożone zadania. Dwa lata temu GPT-4 radził sobie z zadaniami, które ludziom zajmowały 5–6 minut, ale teraz GPT-5 rozwiązuje połowę zadań, które ludziom zajmują półtorej godziny. Jak możemy stworzyć takie warunki, w których „efektywna współpraca nauki, sektora publicznego oraz biznesu umożliwi rozwój i implementację najnowszych technologii cyfrowych oraz odpowiednie ich wykorzystywanie”, jak zakłada nowa polityka rozwoju AI na następne pięć lat?

Zasada Czerwonej Królowej: trzeba szybko biec, by nie stać w miejscu

Nauka wymaga specjalistycznych systemów AI

Nie powinniśmy zapominać o naukach podstawowych, tworzących fundamenty dla nowych technologii. Wdrażanie technologii, która dobrze wypada w testach, ale nie jest jeszcze dojrzała do rzeczywistych zastosowań, systemów takich jak ChatGPT, które wiedzą wszystko o wszystkim, ale jest to wiedza płytka, często kończy się rozczarowaniem. To nie są systemy wszechwiedzące, które wszystko zrobią same. Sukcesy są możliwe dzięki współpracy ekspertów, mających wiedzę w jakiejś dziedzinie, w połączeniu z systemami AI dostosowanymi do konkretnych zadań. Zastosowania AI wymagają dalszego rozwoju algorytmów, a nie tylko wykorzystania istniejących systemów. Kluczem do efektywnego wykorzystania AI są badania, edukacja i dostosowanie procedur organizacyjnych w firmach i jednostkach badawczych. Sukcesy AlphaFold, za które w ubiegłym roku Demis Hassabis i John Jumper dostali Nagrodę Nobla z chemii, wymagały głębokiego zrozumienia procesów biologii molekularnej. Obecnie mamy już AlphaFold 3, przewidujący struktury kompleksów białek i ich interakcje z RNA, DNA i innymi cząsteczkami. Narzędzi tego rodzaju powstało już wiele w oparciu o algorytmy głębokiego uczenia, transformery czy modele dyfuzyjne. W ciągu kilku lat wykorzystanie sztucznej inteligencji do poszukiwania nowych leków przyspieszyło każdy etap tego procesu, począwszy od analizy genomów, transkryptomów, danych metabolicznych, proteomicznych, epigenetycznych, znajdowania nowych zastosowań istniejących leków, a skończywszy na projektowaniu nowych i prognozowaniu ich własności jeszcze przed ich syntezą, a następnie optymalizacji badań klinicznych. Zwiększyło to dwukrotnie sukcesy w odkrywaniu skutecznych leków, skróciło o ponad połowę czas pracy nad nimi oraz, zmniejszyło koszty nawet o 70 proc. W „Nature Medicine” jest wiele artykułów na temat odkryć dokonanych dzięki wyspecjalizowanym systemom AI.
„The Lancet” opublikował niedawno artykuł o grupach agentów AI w zastosowaniach medycznych. Pełne wykorzystanie potencjału AI wymaga traktowania takich systemów jako partnerów w opiece zdrowotnej. Nie wystarczą duże modele językowe, potrzebne są systemy wieloagentowe, które potrafią korzystać z odpowiednich narzędzi. Analizy trudnych przypadków wymagających diagnozy i głębokiego rozumowania wykonane przez 25 ekspertów z amerykańskich szpitali klinicznych pokazały, że duże modele AI osiągnęły poziom wyraźnie przekraczający możliwości ludzi. Dla bardzo skomplikowanych rzeczywistych przypadków publikowanych w „The New England Journal of Medicine” Microsoft AI Diagnostic Orchestrator prawidłowo zdiagnozował 85 proc., czyli ponad czterokrotnie więcej przypadków niż grupa doświadczonych lekarzy. Procedury i testy zalecane przez AI dla potwierdzenia diagnoz były znacznie tańsze niż zalecane przez lekarzy. TxAgent prowadzi wieloetapowe rozumowanie, mając do dyspozycji 211 narzędzi ToolUniverse do analizy interakcji między lekami, przeciwwskazań i strategii leczenia. Ocenia interakcje między lekami na poziomie molekularnym, farmakokinetycznym i klinicznym, identyfikuje przeciwwskazania na podstawie chorób współistniejących u pacjenta i przyjmowanych przez niego leków oraz dostosowuje strategie leczenia do indywidualnych cech pacjenta oraz udoskonala zalecenia dotyczące leczenia. Zrandomizowane badanie generatywnego chatbota AI o nazwie Therabot, stosowanego w leczeniu zaburzeń psychicznych, pokazało jego skuteczność w terapii osób dorosłych cierpiących na poważną depresję, zaburzenia lękowe czy zaburzeniami odżywiania.
W lipcu 2025 roku po raz pierwszy model Grok 4 poradził sobie w rzeczywistym świecie z zarządzaniem automatem sprzedającym różne rzeczy (automatem vendingowym). Długoterminowy scenariusz biznesowy wymaga śledzenia zapasów, składania zamówień, ustalania cen, przelewania opłat, spójności decyzji w długim okresie. Dotychczas dość szybko systemy AI w takich zastosowaniach zaczynały robić błędy. Zarządzanie nawet takim małym biznesem wymaga szerokiej wiedzy i zrozumienia sytuacji. Za miesiąc wszystkie duże systemy sobie z tym poradzą, a za dwa miesiące małe wyspecjalizowane lokalne systemy będą działały równie dobrze. Za rok wszyscy właściciele takich automatów pozostawią zarządzanie systemom AI. Kto się zbytnio pospieszył, będzie miał kłopoty. To, że chwilowo nie wszystko działa dobrze, nie oznacza, że za rok tak będzie.
Nie są to proste zastosowania. Stały się możliwe dzięki nowym systemom AI, które wykorzystują wielkie modele językowe do znajdywania skojarzeń, a także zdolnych do rozumowania. Byłoby znacznie łatwiej je udoskonalać i wprowadzać, gdyby informatycy mogli wybierać dodatkowe zajęcia skupione na intersującej ich dyscyplinie. Proponowałem takie rozwiązanie 30 lat temu. Nasi studenci mogą wybierać wiele dodatkowych zajęć potrzebnych do zdobycia 30 punktów ECTS, ale jeśli informatyk wybierze sobie podstawy prawa czy medycyny, nie dostanie certyfikatu zdobytych umiejętności. W USA powszechnie jest stosowany system przyznawania dyplomów zarówno głównego kierunku studiów (major), jak i dodatkowego (minor). Dzięki temu absolwenci są lepiej przygotowani do pracy.

Przed nami dwa lata przyspieszenia

Chociaż wielu ludziom trudno w to uwierzyć, nie widać barier rozwoju sztucznej inteligencji. Duże modele AI to nie rozbudowany kalkulator. Nasze mózgi to nie kalkulatory zliczające impulsy neuronów. Elektronika i biologia to dwa różne światy, ale na poziomie funkcjonalnym procesy zachodzące w mózgach i w sztucznych sieciach neuronowych wykazują bardzo wiele podobieństw. Sieci neuronowe uczą się i kojarzą, ale nie można ich sprowadzić do programu wykonującego kolejne instrukcje. Tworzymy wielkie sieci, napełniamy je wiedzą z tekstów, obrazów i wideo, ale nie da się dokładnie przewidzieć ich odpowiedzi. Gdyby to było możliwe, to już dawno mielibyśmy „tradycyjne” programy komputerowe zdolne do prowadzenia dialogu czy tworzenia obrazów. Następne dwa lata będą okresem jeszcze szybszego postępu. Nauczyliśmy się tworzyć znacznie efektywniejsze algorytmy niż rok temu. Sztuczne systemy mają mniej ograniczeń niż biologiczne mózgi, dlatego będziemy widzieć nadludzkie możliwości w kolejnych zastosowaniach, nie tylko w grach. Model HRM (hierarchiczny model rozumowania), opublikowany w sierpniu 2025, tworzy abstrakcyjne plany, które są następnie realizowane przez moduły wykonawcze. Gry sudoku czy trudne testy ARC (Abstraction and Reasoning Corpus), z którymi nie poradziły sobie wielkie systemy o bilionie parametrów, HRM rozwiązał, mając zaledwie 27 mln parametrów i tylko 1000 przykładów treningowych. Podważa to przekonanie o konieczności tworzenia ogromnych systemów, które trzeba uczyć tygodniami na bardzo drogim sprzęcie i wielkich bazach danych.

Polska ma wiele do zrobienia

Jest więc naprawdę dużo do zrobienia i rząd zdaje sobie z tego sprawę. Ministerstwo Cyfryzacji poczyniło w ciągu ostatniego roku znaczne postępy. Nie wystarczy jednak zakupić pracownie AI dla szkół czy zbudować Fabryk AI. Wzorem innych krajów Unii Europejskiej powinniśmy zainwestować w ludzi, w programy doktoranckie, interdyscyplinarne studia i nowe centra badawcze przygotowujące do zastosowań AI na wielką skalę, w rozwój profesorskiej kadry, która nam się mocno zestarzała. Brakuje nam repozytoriów danych i programu ich systematycznego gromadzenia tak, by można je wykorzystać do trenowania modeli AI. Mamy Krajowy Magazyn Danych (KMD) i platformę dane.gov.pl, ale nie ma tam niczego przydatnego. Trzeba znacznie rozbudować nasze modele PLLuM i Bielik, by nadawały się do analizy nauk społecznych, i opracować ćwiczenia z wykorzystaniem AI, które będą rozbudzać ciekawość, uczyć, jak stawiać dobre pytania i kreować wyzwania zachęcające uczniów do kreatywnego wykorzystania możliwości AI. To będzie znacznie lepsze rozwiązanie niż zakup gotowych programów od Google czy Microsoftu.
Fidji Simo, nowa dyrektorka generalna ds. aplikacji w OpenAI, napisała: „Wierzę, że AI stworzy więcej możliwości dla większej liczby osób niż jakakolwiek inna technologia w historii. Jeśli wykonamy swoją pracę dobrze, AI może upodmiotowić wszystkich ludzi w stopniu większym, niż było to dotąd możliwe”. Jeśli tylko zrobimy to dobrze. 

Chcesz wiedzieć więcej?

prof. dr hab. Włodzisław Duch 

Katedra Informatyki Stosowanej
Wydział Fizyki i Astronomii
Uniwersytet Mikołaja Kopernika w Toruniu

prof. Włodzisław Duch 

Współzałożyciel Polskiego Towarzystwa Sieci Neuronowych i Polskiego Stowarzyszenia Sztucznej Inteligencji. Przez dwie kadencje, w latach 2006–2011, piastował stanowisko prezesa Europejskiego Towarzystwa Sieci Neuronowych (European Neural Network Society). W latach 2014–2015 był podsekretarzem stanu w MNiSW.

https://is.umk.pl/~duch/

Przejdź do treści