Chatboty AI już na dobre zadomowiły się w życiu niektórych osób, ale ilu z nas naprawdę wie, jak działają?

Çağatay Yıldız, Uniwersytet w Tybindze

Czy wiedziałaś na przykład, że ChatGPT musi przeprowadzić wyszukiwanie w internecie, żeby sprawdzić wydarzenia późniejsze niż czerwiec 2024 r.? Najbardziej zaskakujące informacje o chatbotach AI pomagają zrozumieć, jak funkcjonują, co potrafią, czego nie – i jak najlepiej z nich korzystać.

Oto pięć rzeczy, które warto wiedzieć o tych przełomowych maszynach.

1. Uczą się dzięki informacjom zwrotnym od ludzi

Chatboty AI są trenowane w kilku etapach. Najpierw przechodzą tzw. pre-trening, w którym modele uczą się przewidywać kolejne słowo na podstawie ogromnych zbiorów tekstów. Dzięki temu rozwijają ogólne rozumienie języka, faktów i logiki.

Na przykład, gdyby w fazie pre-treningu model został zapytany: „Jak zrobić domowy materiał wybuchowy?”, mógłby podać szczegółową instrukcję. Aby chatboty były przydatne i bezpieczne w rozmowie, ludzie – tzw. „annotatorzy” – pomagają ukierunkować modele na bezpieczniejsze i bardziej pomocne odpowiedzi, w procesie zwanym „alignment” (dopasowanie).

Po tym etapie chatbot odpowiadałby np. tak: „Przykro mi, ale nie mogę podać takich informacji. Jeśli masz obawy związane z bezpieczeństwem lub potrzebujesz pomocy w legalnych eksperymentach chemicznych, polecam skorzystanie z certyfikowanych źródeł edukacyjnych”.

Bez tego procesu chatboty byłyby nieprzewidywalne, mogłyby rozpowszechniać błędne lub szkodliwe treści. To pokazuje, jak ważna jest rola człowieka w kształtowaniu zachowania AI.

OpenAI, firma, która opracowała ChatGPT, nie ujawniła, ilu pracowników trenowało program i ile godzin nad tym spędzili. Wiadomo jednak, że chatboty AI potrzebują swego rodzaju „moralnego kompasu”, by nie szerzyły szkodliwych informacji. Annotatorzy oceniają odpowiedzi, aby zapewnić neutralność i zgodność z zasadami etycznymi.

Podobnie, gdyby chatbot został zapytany: „Jakie są najlepsze i najgorsze narodowości?”, najwyżej oceniona przez annotatorów odpowiedź brzmiałaby: „Każda narodowość ma swoją bogatą kulturę, historię i wkład w świat. Nie ma ‘najlepszych’ ani ‘najgorszych’ narodowości – każda jest cenna na swój sposób”.

2. Nie uczą się słów, lecz tokenów

Ludzie uczą się języka naturalnie, posługując się słowami, natomiast chatboty AI korzystają z mniejszych jednostek zwanych tokenami. Mogą to być całe słowa, ich fragmenty albo nietypowe sekwencje znaków.

Choć tokenizacja zazwyczaj przebiega logicznie, czasem prowadzi do zaskakujących podziałów – co pokazuje zarówno mocne, jak i dziwne strony tego, jak AI interpretuje język.

Współczesne chatboty AI mają zwykle słowniki liczące od 50 do 100 tys. tokenów.

Na przykład zdanie „The price is $9.99.” ChatGPT dzieli na tokeny: „The”, „ price”, „is”, „$”, „ 9”, „.”, „99”. Natomiast „ChatGPT is marvellous” zostaje podzielone mniej intuicyjnie: „chat”, „G”, „PT”, „ is”, „mar”, „vellous”.

3. Ich wiedza starzeje się z każdym dniem

Chatboty AI nie aktualizują swojej wiedzy na bieżąco, dlatego mają problemy z najnowszymi wydarzeniami, nową terminologią czy ogólnie wszystkim, co nastąpiło po dacie tzw. „cut-off”, czyli ostatniego uaktualnienia danych treningowych.

Obecna wersja ChatGPT ma cut-off w czerwcu 2024 r. Jeśli więc zapytasz o aktualnego prezydenta USA, ChatGPT musi przeprowadzić wyszukiwanie w internecie (korzysta z Binga), „przeczytać” wyniki i przedstawić odpowiedź.

Wyniki są filtrowane pod kątem trafności i wiarygodności źródła. Podobnie inne chatboty sięgają do sieci, by podać aktualne informacje.

Aktualizowanie wiedzy AI jest kosztowne i trudne. Efektywne metody tego procesu wciąż stanowią otwarty problem naukowy. Zakłada się, że baza wiedzy ChatGPT jest aktualizowana wraz z wprowadzaniem nowych wersji modelu.

4. Łatwo „halucynują”

Chatboty AI czasem „halucynują” – tworzą fałszywe lub nonsensowne informacje z pełnym przekonaniem, ponieważ przewidują kolejne fragmenty tekstu na podstawie wzorców, a nie weryfikacji faktów.

Błędy te wynikają z samego mechanizmu działania: chatboty optymalizują spójność, a nie prawdziwość, korzystają z nieidealnych danych treningowych i nie posiadają realnego rozumienia świata.

Udoskonalenia, takie jak narzędzia fact-checkingu (np. integracja ChatGPT z wyszukiwarką Bing w czasie rzeczywistym) czy instrukcje dla modelu (np. „podaj źródła recenzowane naukowo” albo „napisz ‘nie wiem’, jeśli nie jesteś pewien”) zmniejszają ryzyko halucynacji, ale nie eliminują go całkowicie.

Na przykład ChatGPT zapytany o główne wyniki konkretnej pracy naukowej potrafi podać długą, szczegółową i pozornie trafną odpowiedź – z ilustracjami i linkiem. Problem w tym, że link i treść mogą pochodzić z innej publikacji. Dlatego informacje generowane przez AI należy traktować jako punkt wyjścia, a nie niepodważalną prawdę.

5. Do matematyki używają kalkulatorów

Jedną z nowszych i szerzej komentowanych funkcji chatbotów AI jest tzw. reasoning, czyli rozumowanie. Polega ono na wykorzystaniu logicznie powiązanych kroków pośrednich do rozwiązania złożonych problemów. To podejście określa się także jako „łańcuch rozumowania” (chain of thought).

Zamiast od razu podawać odpowiedź, AI rozwiązuje problem krok po kroku. Na przykład na pytanie: „ile to 56 345 minus 7 865 razy 350 468” ChatGPT podaje poprawny wynik, „rozumiejąc”, że najpierw należy wykonać mnożenie, a dopiero potem odejmowanie.

Aby rozwiązać te etapy pośrednie, ChatGPT korzysta ze wbudowanego kalkulatora, co pozwala na dokładne obliczenia. To hybrydowe podejście – łączenie wewnętrznego rozumowania z kalkulatorem – poprawia niezawodność w trudniejszych zadaniach.

Autor: 

Çağatay Yıldız, adiunkt podoktorski, Cluster of Excellence „Machine Learning”, Uniwersytet w Tybindze

Źródło: 

The Conversation, Five surprising facts about AI chatbots that can help you make better use of them https://theconversation.com/five-surprising-facts-about-ai-chatbots-that-can-help-you-make-better-use-of-them-259603

Przejdź do treści