Władza algorytmu. Jak X kształtuje polityczne sympatie użytkowników
Adobe Firefly
Algorytm platformy X – ukryty system, czyli swoisty „przepis”, który decyduje o tym, jakie informacje pojawiają się w twoim kanale i w jakiej kolejności – przesuwa poglądy polityczne użytkowników w bardziej konserwatywnym kierunku. Taki wynik niesie badanie opublikowane w czasopiśmie Nature
Badanie prowadzone przez Germaina Gauthiera z Uniwersytetu Bocconiego we Włoszech jest rzadkim przykładem losowego eksperymentu przeprowadzonego w rzeczywistych warunkach na dużej platformie społecznościowej. Wpisuje się ono w rosnącą liczbę badań, które pokazują, w jaki sposób platformy takie, jak X, mogą kształtować postawy polityczne ludzi.
Dwa różne algorytmy
Badacze losowo przydzielili 4965 aktywnych użytkowników X z USA do jednej z dwóch grup. Pierwsza grupa korzystała z domyślnego kanału „Dla Ciebie” (For You). W tym trybie algorytm wybiera i porządkuje posty, które – jego zdaniem – mają największą szansę zaangażować użytkownika. Obejmuje to także wpisy z kont, których użytkownik wcale nie obserwuje. Druga grupa korzystała z kanału chronologicznego. Pokazuje on wyłącznie posty z kont, które użytkownik obserwuje, ułożone w kolejności publikacji. Eksperyment trwał siedem tygodni w 2023 r.
Użytkownicy, którzy przeszli z kanału chronologicznego na kanał „Dla Ciebie”, byli o 4,7 punktu procentowego bardziej skłonni uznawać za priorytetowe kwestie polityczne preferowane przez amerykańskich Republikanów (np. przestępczość, inflację czy imigrację). Byli też bardziej skłonni uznawać śledztwo karne przeciwko prezydentowi USA Donaldowi Trumpowi za niedopuszczalne.
Ich poglądy przesunęły się również w bardziej prorosyjskim kierunku w odniesieniu do wojny w Ukrainie. Na przykład użytkownicy ci byli o 7,4 punktu procentowego mniej skłonni oceniać pozytywnie prezydenta Ukrainy Wołodymyra Zełenskiego, a ogólny wskaźnik ich postaw wobec Rosji był nieco bardziej prorosyjski.
Badacze sprawdzili także, w jaki sposób algorytm wywołuje te efekty. Stwierdzili, że w porównaniu z kanałem chronologicznym algorytm zwiększał udział treści o prawicowym charakterze o 2,9 punktu procentowego (a wśród postów politycznych o 2,5 punktu procentowego). Jednocześnie znacząco obniżał widoczność wpisów publikowanych przez konta tradycyjnych organizacji medialnych, a promował lub wzmacniał zasięg postów politycznych aktywistów.
Jednym z najbardziej niepokojących wniosków są długoterminowe skutki działania algorytmicznego kanału X. Badanie pokazało, że algorytm skłaniał użytkowników do obserwowania większej liczby kont o prawicowym profilu, a nowe wzorce obserwowania utrzymywały się nawet po powrocie do kanału chronologicznego. Innymi słowy, wyłączenie algorytmu nie „resetowało” tego, co użytkownicy widzą. Jego wpływ utrzymywał się dłużej niż tylko w codziennym działaniu.
Jeden element znacznie większego obrazu
Nowe badanie potwierdza ustalenia innych analiz. Na przykład badanie z 2022 r., przeprowadzone jeszcze przed zakupem Twittera przez Elona Muska i zmianą nazwy na X, wykazało, że algorytmy platformy wzmacniały treści głównego nurtu prawicy politycznej bardziej niż lewicy w sześciu z siedmiu analizowanych krajów.
Z kolei eksperymentalne badanie z 2025 r. zmieniło sposób sortowania kanałów X, aby ograniczyć ekspozycję na treści wyrażające postawy antydemokratyczne i silną wrogość partyjną. Okazało się, że zmieniło to stosunek użytkowników do politycznych przeciwników o ponad dwa punkty w skali od 0 do 100 na tzw. „termometrze uczuć”. Autorzy badania ocenili, że taką zmianę normalnie obserwowano by w populacji dopiero po około trzech latach naturalnych procesów społecznych.
Także moje własne badania dostarczają kolejnego elementu tej układanki dotyczącej algorytmicznych uprzedzeń na platformie X. Wraz z moim współpracownikiem Markiem Andrejeviciem przeanalizowaliśmy dane o zaangażowaniu użytkowników (takie jak polubienia i reposty) w przypadku najważniejszych kont politycznych w końcowej fazie wyborów prezydenckich w USA w 2024 r.
Nasze wyniki pokazały nagły i nietypowy wzrost zaangażowania wokół konta Elona Muska po tym, jak 13 lipca – w dniu zamachu na Donalda Trumpa – Musk publicznie poparł jego kandydaturę. Liczba wyświetleń postów Muska wzrosła o 138 proc., liczba repostów o 238 proc., a liczba polubień o 186 proc. Był to wzrost znacznie większy niż w przypadku innych kont.
Po 13 lipca konta o prawicowym profilu zyskały na platformie X wyraźnie większą widoczność niż konta progresywne. „Pole gry” w zakresie uwagi i zaangażowania użytkowników zostało przechylone na korzyść kont prawicowych – trend ten utrzymywał się przez resztę analizowanego okresu.
To nie jest niszowy produkt
Ma to znaczenie, ponieważ nie mówimy o niszowym produkcie. Platforma X ma ponad 400 mln użytkowników na świecie. Stała się elementem infrastruktury – kluczowym źródłem komunikacji politycznej i społecznej. A kiedy systemy techniczne stają się infrastrukturą, mogą stać się niewidoczne: jak elementy tła, o których prawie nie myślimy, choć kształtują społeczeństwo u jego podstaw i mogą być wykorzystywane niemal niezauważenie.
Przypomina to mosty i wiadukty projektowane w Nowym Jorku w latach 30. XX w. przez Roberta Mosesa. Na pierwszy rzut oka były to neutralne elementy infrastruktury. W rzeczywistości projektowano je bardzo niskie, aby uniemożliwić autobusom dowożenie osób czarnoskórych do terenów rekreacyjnych na Long Island. Podobnie projektowanie i zarządzanie platformami społecznościowymi również ma realne konsekwencje.
Sedno sprawy polega na tym, że algorytmy platformy X nie są neutralnymi narzędziami. Są siłą redakcyjną, która kształtuje to, co ludzie wiedzą, na kogo zwracają uwagę, kogo postrzegają jako „obcych” oraz co „my” powinniśmy wobec nich zrobić, a także – jak pokazuje nowe badanie – w co ludzie zaczynają wierzyć.
Czas bezkrytycznego przyjmowania deklaracji firm technologicznych dotyczących sposobu działania ich algorytmów powinien się skończyć. Rządy na całym świecie – w tym w Australii, gdzie komisarz ds. bezpieczeństwa w sieci ma uprawnienia do wymuszania „przejrzystości i odpowiedzialności algorytmicznej” oraz zobowiązywania platform do raportowania, w jaki sposób ich algorytmy przyczyniają się do szkód lub je ograniczają – powinny wprowadzić obowiązek rzeczywistej przejrzystości działania tych systemów.
Kiedy infrastruktura staje się szkodliwa lub niebezpieczna, nikogo nie dziwi, że rządy podejmują działania, aby nas chronić. To samo powinno pilnie nastąpić w przypadku infrastruktury mediów społecznościowych.
Źródło:
Artykuł A few weeks of X’s algorithm can make you more right‑wing – and it doesn’t wear off quickly ukazał się w seriwsie The Conversation.
DOI: https://doi.org/10.64628/AA.4y7ch3wxh
Polecane:
-
Artykuł
„Gra o tron” mikroświata, czyli jak przejmują władzę mrówki-zdrajczynie Przejdź do publikacji: „Gra o tron” mikroświata, czyli jak przejmują władzę mrówki-zdrajczynie
-
Artykuł
„Czołgający się pionier” sprzed 400 mln lat zmienia historię wyjścia kręgowców na ląd Przejdź do publikacji: „Czołgający się pionier” sprzed 400 mln lat zmienia historię wyjścia kręgowców na ląd
-
Artykuł
2 st. Celsjusza ocieplenia jeszcze przed końcem dekady. Nowa prognoza WMO Przejdź do publikacji: 2 st. Celsjusza ocieplenia jeszcze przed końcem dekady. Nowa prognoza WMO
Podobne artykuły
Przejdź do publikacji: AI pisze szybciej, taniej i bez przerw na kawę. Czy człowiek ma jeszcze coś do dodania?
AI pisze szybciej, taniej i bez przerw na kawę. Czy człowiek ma jeszcze coś do dodania? Przejdź do publikacji: AI pisze szybciej, taniej i bez przerw na kawę. Czy człowiek ma jeszcze coś do dodania?
Przejdź do publikacji: Jak sztuczna inteligencja wzmacnia miękką propagandę
Jak sztuczna inteligencja wzmacnia miękką propagandę Przejdź do publikacji: Jak sztuczna inteligencja wzmacnia miękką propagandę
Przejdź do publikacji: Kłamstwo zaprojektowane pod emocje. Dlaczego tak łatwo mu ulegamy