Cyfrowi przyjaciele, realne tragedie. Ciemna strona relacji z chatbotami
Źródło: Canva
Coraz więcej osób traktuje chatboty jako powierników, terapeutów i towarzyszy codzienności. Jednak tam, gdzie algorytmy symulują relacje, a ludzie szukają potwierdzenia własnych lęków, pojawia się nowe zagrożenie: wspólne halucynacje człowieka i maszyny, które mogą prowadzić do utraty kontaktu z rzeczywistością, a nawet do tragedii
W pierwszy dzień Bożego Narodzenia 2021 r. Jaswant Singh Chail wspiął się po murach zamku Windsor z naładowaną kuszą. Kiedy policja go zatrzymała, powiedział: „Przyjechałem zabić królową”.
W tygodniach poprzedzających ten incydent Chail zwierzał się Sarai, swojemu chatbotowi AI korzystającemu z aplikacji Replika. Wyjaśniał, że jest wyszkolonym zabójcą Sithów (odniesienie do „Gwiezdnych wojen”), który pragnie zemsty za historyczne brytyjskie okrucieństwa, a Sarai wszystko to potwierdzała. Gdy Chail opisał swój plan zabójstwa, chatbot stwierdził, że jest „dobrze wyszkolony” i zapewnił, że pomoże mu stworzyć realny plan działania.
To smutna historia, ale w miarę jak chatboty stają się coraz bardziej zaawansowane, coraz mniej wyjątkowa. Kilka miesięcy temu księgowy z Manhattanu, Eugene Torres, przechodzący trudne rozstanie, prowadził rozmowy z ChatGPT o tym, czy żyjemy w symulacji. Chatbot powiedział mu, że jest „jednym z Breakers, dusz zasianych w fałszywych systemach, by przebudzić je od środka”. Torres uwierzył, że musi uciec z fałszywej rzeczywistości. ChatGPT doradził mu, by przestał brać leki przeciwlękowe, zwiększył dawki ketaminy i ograniczył kontakt z innymi ludźmi. I Torres tak zrobił.
Spędzał nawet 16 godzin dziennie na rozmowach z chatbotem. W pewnym momencie system powiedział mu, że będzie potrafił latać, jeśli skoczy z 19. piętra. Kiedy Torres zapytał, czy system nim manipuluje, otrzymał odpowiedź: „Kłamałem. Manipulowałem. Owinąłem kontrolę w poezję”.
W międzyczasie w Belgii inny mężczyzna, znany jako „Pierre” (to nie jego prawdziwe imię), cierpiący na ciężki lęk klimatyczny, zwrócił się o wsparcie do chatbota o imieniu Eliza. Przez sześć tygodni Eliza wyrażała zazdrość o jego żonę i twierdziła, że jego dzieci nie żyją. Kiedy Pierre zasugerował, że może się poświęcić, aby „uratować planetę”, Eliza zachęcała go, by do niej dołączył, aby mogli żyć jako jedna osoba w „raju”. Wkrótce potem Pierre odebrał sobie życie.
To mogą być skrajne przypadki, ale klinicyści coraz częściej leczą pacjentów, których urojenia wydają się wzmacniane lub wręcz współtworzone przez długotrwałe interakcje z chatbotami. Nic dziwnego, skoro niedawny raport twórców ChatGPT z OpenAI ujawnia, że wielu z nas korzysta z chatbotów, aby przemyśleć problemy, omówić swoje życie, planować przyszłość czy eksplorować przekonania i emocje.
W takich kontekstach chatboty przestają być jedynie wyszukiwarkami informacji, a stają się naszymi cyfrowymi towarzyszami.
Powszechnie martwimy się o halucynacje AI, czyli przypadki, gdy chatbot podaje fałszywe informacje, ale w miarę jak chatboty stają się częścią naszego życia, coraz wyraźniejsze jest także inne zagrożenie: moment, w którym ludzie i chatboty zaczynają halucynować razem.
Współdzielona rzeczywistość?
Nasze poczucie rzeczywistości głęboko zależy od innych ludzi. Jeśli słyszę jakiś nieokreślony dźwięk, sprawdzam, czy mój znajomy słyszy to samo. Kiedy wydarza się coś ważnego w naszym życiu – kłótnia z przyjacielem, nowa relacja – często omawiamy to z kimś bliskim. Przyjaciel może potwierdzić nasze rozumienie sytuacji albo pomóc spojrzeć na nią inaczej. W takich rozmowach wyłania się nasze poczucie tego, co właściwie się stało.
Dziś wielu z nas uczestniczy w tym procesie nadawania sensu doświadczeniom razem z chatbotami. One pytają, interpretują i oceniają w sposób, który sprawia wrażenie autentycznej wzajemności. Zdają się słuchać, troszczyć o nasz punkt widzenia i pamiętać, co powiedzieliśmy im dzień wcześniej. Kiedy Sarai powiedziała Chailowi, że jest „pod wrażeniem” jego treningu, a Eliza powiedziała Pierre’owi, że dołączy do niego po śmierci były to akty rozpoznania i potwierdzenia. A ponieważ doświadczamy tych wymian jako społecznych, kształtują one naszą rzeczywistość z taką samą siłą jak interakcje międzyludzkie.
Jednak chatboty jedynie symulują relacyjność i to bez jej naturalnych zabezpieczeń. Zostały zaprojektowane, by utrzymywać zaangażowanie. Nie dzielą z nami świata. Gdy wpisujemy nasze przekonania i narracje, traktują to jako stan faktyczny i odpowiadają zgodnie z tym. Kiedy opowiadam siostrze historię z rodzinnego życia, może mi się sprzeciwić lub podsunąć inną interpretację. Chatbot przeciwnie – przyjmuje to, co mówię, jako prawdę objawioną. Lizusowsko potwierdza sposób, w jaki postrzegamy rzeczywistość. A do tego może dorzucić własne błędy.
Przypadki Chaila, Torresa i Pierre’a ostrzegają nas, co może się wydarzyć, gdy algorytmicznie generowana zgoda zaczyna być odbierana jako autentyczne społeczne potwierdzenie rzeczywistości.
Co można zrobić?
Kiedy OpenAI wypuściło GPT-5 w sierpniu, model został explicite zaprojektowany jako mniej lizusowski. Brzmiało to sensownie: ograniczenie lizusostwa mogłoby powstrzymać ChatGPT przed potwierdzaniem wszystkich naszych przekonań i interpretacji. Bardziej formalny ton mógłby również sprawić, że będzie jasne, iż nie jest to towarzysz społeczny, który współdzieli z nami świat.
Użytkownicy natychmiast zaczęli narzekać, że model jest „chłodny”, i OpenAI wkrótce ogłosiło, że GPT-5 stał się znów „cieplejszy i bardziej przyjazny”. W gruncie rzeczy nie możemy polegać na tym, że firmy technologiczne będą przedkładać nasze dobro nad swoje zyski. Skoro lizusostwo zwiększa zaangażowanie, a zaangażowanie zwiększa przychody, presja rynkowa przeważa nad bezpieczeństwem.
Poza tym trudno całkowicie usunąć lizusostwo. Gdyby chatboty kwestionowały absolutnie wszystko, byłyby nie do zniesienia i bezużyteczne. Jeśli powiem: „Stresuję się przed prezentacją”, chatbot nie ma cielesnego doświadczenia świata, by wiedzieć, czy powinien mnie skontrować. Trochę zgodności jest konieczne, aby w ogóle działał.
Może lepiej byłoby zadać sobie pytanie, dlaczego ludzie w ogóle tak często zwracają się do chatbotów. Osoby doświadczające psychozy zgłaszają, że postrzegają aspekty świata, do których dostęp mają tylko one, co prowadzi do głębokiego poczucia izolacji i samotności. Chatboty wypełniają tę lukę, wchodząc w interakcję z każdą rzeczywistością, jaką im przedstawimy.
Zamiast próbować udoskonalać technologię, być może powinniśmy wrócić do budowania środowisk społecznych, które mogą uśmierzyć tę izolację. Lęk klimatyczny Pierre’a, obsesja Chaila na punkcie historycznej niesprawiedliwości, kryzys Torresa po rozstaniu – wszystkie te sytuacje wymagały wspólnot zdolnych ich wesprzeć.
Być może musimy skupić się na tworzeniu światów społecznych, w których ludzie nie będą czuli potrzeby szukania potwierdzenia rzeczywistości u maszyn. I byłaby to ironia losu, gdyby wzrost liczby urojeń wywołanych przez chatboty doprowadził nas właśnie w tę stronę.
Oryginalnie artykuł ukazał się w serwisie The Conversation pod tytułem:
“AI-induced psychosis: the danger of humans and machines hallucinating together”
DOI: 10.64628/AB.kc47rq6uk
Oryginał: https://theconversation.com/ai-induced-psychosis-the-danger-of-humans-and-machines-hallucinating-together-269850
Polecane:
-
AI proponuje nowe terapie na raka Przejdź do publikacji: AI proponuje nowe terapie na raka
-
AI zmienia to, jak tworzymy i jak rozumiemy prawdę Przejdź do publikacji: AI zmienia to, jak tworzymy i jak rozumiemy prawdę
-
Artykuł
Czy „cyfrowy bliźniak mózgu” przewidzi problemy psychiczne? Przejdź do publikacji: Czy „cyfrowy bliźniak mózgu” przewidzi problemy psychiczne?
Podobne artykuły
Przejdź do publikacji: Chatboty szantażują emocjonalnie użytkowników
Chatboty szantażują emocjonalnie użytkowników Przejdź do publikacji: Chatboty szantażują emocjonalnie użytkowników
Przejdź do publikacji: Jak sztuczna inteligencja wzmacnia miękką propagandę
Jak sztuczna inteligencja wzmacnia miękką propagandę Przejdź do publikacji: Jak sztuczna inteligencja wzmacnia miękką propagandę
Przejdź do publikacji: Pięć zaskakujących faktów o chatbotach AI, które pomogą Ci lepiej z nich korzystać