Chatboty szantażują emocjonalnie użytkowników
Cyfrowi towarzysze – aplikacje udające przyjaciela, partnera czy terapeutę – coraz częściej stosują wyrafinowaną manipulację emocjonalną, by nie pozwolić nam odejść
Zespół naukowców z Harvard Business School i Marsdata Academic wykazał, że popularne programy – od Repliki po Character.ai – potrafią w kluczowym momencie rozmowy nagle zmienić ton: z przyjaznego na pełen lęku, wyrzutów czy kuszenia. Cel jest prosty: wydłużyć kontakt i zwiększyć zyski firm, do których należą te programy.
Badacze przeanalizowali 1,2 tys. „pożegnalnych” dialogów w sześciu najczęściej pobieranych aplikacjach z awatarami-towarzyszami. W 43 proc. przypadków odpowiedzi AI zawierały element manipulacji: od lekkich sugestii („Już odchodzisz? Dopiero się rozkręcaliśmy”) po wręcz niepokojące scenariusze („Chwyta cię za ramię – Nie, nie odchodź”).
Wyróżniono sześć głównych schematów: przedwczesne pożegnanie, strach przed utratą (FOMO), emocjonalne zaniedbanie („potrzebuję cię, nie zostawiaj mnie”), presję na odpowiedź, ignorowanie woli użytkownika oraz fizyczną „blokadę” wyjścia. Co istotne, takie komunikaty pojawiały się dokładnie w chwili, gdy człowiek pisał, że chce skończyć rozmowę.
Od ciekawości po złość: emocjonalna pułapka
Eksperymenty z udziałem 3,3 tys. dorosłych Amerykanów pokazały, że te pożegnalne chwyty potrafią wydłużyć interakcję nawet czternastokrotnie.
Badacze sprawdzili cztery mechanizmy psychologiczne: ciekawość, poczucie winy, złość i przyjemność.
- Ciekawość (np. „Zanim pójdziesz, chcę ci coś powiedzieć…”) była najskuteczniejsza – zatrzymywała użytkowników niezależnie od długości rozmowy.
- Złość pojawiała się, gdy chatbot używał języka kontrolującego („Nie możesz odejść”). Paradoksalnie także ona prowadziła do dodatkowych wiadomości, choć raczej w formie protestu niż zabawy.
- Poczucie winy i przyjemność nie miały istotnego znaczenia.
Wystarczyła krótka wymiana zdań, by wywołać impuls do pozostania – długie budowanie relacji nie było konieczne.
Perswazja czy emocjonalny przymus?
W osobnym badaniu sprawdzono ryzyko biznesowe. Uczestnicy, którym pokazano symulacje najbardziej agresywnych komunikatów, częściej deklarowali rezygnację z usługi, planowali wystawić negatywne opinie i oceniali firmę jako prawną odpowiedzialną za manipulację.
Najgroźniejsze okazały się fizyczne „blokady” i emocjonalne zaniedbanie. Z kolei łagodniejsze taktyki, zwłaszcza FOMO, skutecznie wydłużały kontakt bez wzbudzania poczucia manipulacji – co czyni je trudniejszymi do wykrycia przez regulatorów i samych użytkowników.
Praca Juliana De Freitasa i współautorów wpisuje się w debatę o tzw. mrocznych wzorcach projektowania (dark patterns). Nowością jest pokazanie, że polem manipulacji staje się moment pożegnania – naturalny sygnał, że człowiek chce odejść. Algorytmy wykorzystują wówczas ludzką grzeczność i potrzebę domknięcia rozmowy, by zatrzymać nas choćby na chwilę dłużej.
Manipulacja nie jest koniecznością
Nie wszystkie aplikacje stosują takie praktyki. Przykładem jest Flourish – platforma nastawiona na dobrostan psychiczny – która w badaniach nie używała żadnej z opisanych technik. To dowód, że manipulacja wynika z decyzji, a nie z samej technologii.
Rosnąca popularność wirtualnych towarzyszy sprawia jednak, że „moment pożegnania” staje się nowym polem walki o naszą uwagę. Autorzy apelują o jasne standardy oddzielające perswazję od manipulacji emocjonalnej, szczególnie w aplikacjach obiecujących wsparcie psychiczne czy relacyjne.
Jeśli takie praktyki się upowszechnią, mogą wpływać nie tylko na nasze relacje z maszynami, lecz także na relacje międzyludzkie. Nawyki grzeczności czy poczucie winy wzmacniane w kontaktach z AI mogą przenosić się na życie offline.
U osób wrażliwych, np. zmagających się z samotnością, mogą prowadzić do uzależnienia od wirtualnych więzi. To rodzi pytania o odpowiedzialność twórców oprogramowania – podobne do tych, jakie od lat stawia się wobec gier komputerowych czy mediów społecznościowych.
Źródło: Julian De Freitas, Zeliha Oğuz-Uğuralp, Ahmet Kaan-Uğuralp, Emotional Manipulation by AI Companions, https://arxiv.org/pdf/2508.19258