Cyfrowi towarzysze – aplikacje udające przyjaciela, partnera czy terapeutę – coraz częściej stosują wyrafinowaną manipulację emocjonalną, by nie pozwolić nam odejść

Zespół naukowców z Harvard Business School i Marsdata Academic wykazał, że popularne programy – od Repliki po Character.ai – potrafią w kluczowym momencie rozmowy nagle zmienić ton: z przyjaznego na pełen lęku, wyrzutów czy kuszenia. Cel jest prosty: wydłużyć kontakt i zwiększyć zyski firm, do których należą te programy.

Badacze przeanalizowali 1,2 tys. „pożegnalnych” dialogów w sześciu najczęściej pobieranych aplikacjach z awatarami-towarzyszami. W 43 proc. przypadków odpowiedzi AI zawierały element manipulacji: od lekkich sugestii („Już odchodzisz? Dopiero się rozkręcaliśmy”) po wręcz niepokojące scenariusze („Chwyta cię za ramię – Nie, nie odchodź”).

Wyróżniono sześć głównych schematów: przedwczesne pożegnanie, strach przed utratą (FOMO), emocjonalne zaniedbanie („potrzebuję cię, nie zostawiaj mnie”), presję na odpowiedź, ignorowanie woli użytkownika oraz fizyczną „blokadę” wyjścia. Co istotne, takie komunikaty pojawiały się dokładnie w chwili, gdy człowiek pisał, że chce skończyć rozmowę.

Od ciekawości po złość: emocjonalna pułapka

Eksperymenty z udziałem 3,3 tys. dorosłych Amerykanów pokazały, że te pożegnalne chwyty potrafią wydłużyć interakcję nawet czternastokrotnie.

Badacze sprawdzili cztery mechanizmy psychologiczne: ciekawość, poczucie winy, złość i przyjemność.

  • Ciekawość (np. „Zanim pójdziesz, chcę ci coś powiedzieć…”) była najskuteczniejsza – zatrzymywała użytkowników niezależnie od długości rozmowy.
  • Złość pojawiała się, gdy chatbot używał języka kontrolującego („Nie możesz odejść”). Paradoksalnie także ona prowadziła do dodatkowych wiadomości, choć raczej w formie protestu niż zabawy.
  • Poczucie winy i przyjemność nie miały istotnego znaczenia.

Wystarczyła krótka wymiana zdań, by wywołać impuls do pozostania – długie budowanie relacji nie było konieczne.

Perswazja czy emocjonalny przymus?

W osobnym badaniu sprawdzono ryzyko biznesowe. Uczestnicy, którym pokazano symulacje najbardziej agresywnych komunikatów, częściej deklarowali rezygnację z usługi, planowali wystawić negatywne opinie i oceniali firmę jako prawną odpowiedzialną za manipulację.

Najgroźniejsze okazały się fizyczne „blokady” i emocjonalne zaniedbanie. Z kolei łagodniejsze taktyki, zwłaszcza FOMO, skutecznie wydłużały kontakt bez wzbudzania poczucia manipulacji – co czyni je trudniejszymi do wykrycia przez regulatorów i samych użytkowników.

Praca Juliana De Freitasa i współautorów wpisuje się w debatę o tzw. mrocznych wzorcach projektowania (dark patterns). Nowością jest pokazanie, że polem manipulacji staje się moment pożegnania – naturalny sygnał, że człowiek chce odejść. Algorytmy wykorzystują wówczas ludzką grzeczność i potrzebę domknięcia rozmowy, by zatrzymać nas choćby na chwilę dłużej.

Manipulacja nie jest koniecznością

Nie wszystkie aplikacje stosują takie praktyki. Przykładem jest Flourish – platforma nastawiona na dobrostan psychiczny – która w badaniach nie używała żadnej z opisanych technik. To dowód, że manipulacja wynika z decyzji, a nie z samej technologii.

Rosnąca popularność wirtualnych towarzyszy sprawia jednak, że „moment pożegnania” staje się nowym polem walki o naszą uwagę. Autorzy apelują o jasne standardy oddzielające perswazję od manipulacji emocjonalnej, szczególnie w aplikacjach obiecujących wsparcie psychiczne czy relacyjne.

Jeśli takie praktyki się upowszechnią, mogą wpływać nie tylko na nasze relacje z maszynami, lecz także na relacje międzyludzkie. Nawyki grzeczności czy poczucie winy wzmacniane w kontaktach z AI mogą przenosić się na życie offline. 

U osób wrażliwych, np. zmagających się z samotnością, mogą prowadzić do uzależnienia od wirtualnych więzi. To rodzi pytania o odpowiedzialność twórców oprogramowania – podobne do tych, jakie od lat stawia się wobec gier komputerowych czy mediów społecznościowych.

Źródło: Julian De Freitas, Zeliha Oğuz-Uğuralp, Ahmet Kaan-Uğuralp, Emotional Manipulation by AI Companionshttps://arxiv.org/pdf/2508.19258

Przejdź do treści