AI pisze szybciej, taniej i bez przerw na kawę. Czy człowiek ma jeszcze coś do dodania?
Źródło: Canva
Nowe dane sugerują, że sztuczna inteligencja odpowiada już za ponad połowę nowych artykułów w internecie. Czy to znaczy, że pisanie przez ludzi powoli traci sens, czy raczej stoimy przed kolejną technologiczną zmianą, do której musimy się nauczyć dostosowywać?
Granica między tym, co napisał człowiek, a tym, co wygenerowała maszyna, coraz bardziej się zaciera, szczególnie odkąd coraz trudniej rozpoznać, czy tekst wyszedł spod ludzkiej ręki, czy został stworzony przez sztuczną inteligencję. Teraz – w momencie, który można uznać za punkt zwrotny – firma marketingu cyfrowego Graphite opublikowała badanie pokazujące, że ponad 50 proc. artykułów w sieci jest generowanych przez systemy AI. Jako badacz zajmujący się tym, jak buduje się systemy sztucznej inteligencji, jak ludzie używają ich w codziennym życiu i jak wpływa to na kulturę, dużo myślę o tym, co ta technologia potrafi i gdzie ujawniają się jej ograniczenia.
Jeśli w internecie częściej czytasz tekst napisany przez AI niż przez człowieka, to czy to tylko kwestia czasu, aż ludzkie pisanie stanie się zbędne? A może mamy do czynienia z kolejnym etapem rozwoju techniki, do którego – jak zwykle – spróbujemy się dostosować?
To nie jest „albo – albo”
Rozważając te pytania, przypomniałem sobie esej Umberta Eco Apocalittici e integrati (Apokaliptycy i dostosowani), napisany na początku lat 60. Fragmenty tego tekstu znalazły się później w antologii Apocalypse Postponed (Apokalipsa odroczona), którą po raz pierwszy przeczytałem jako student we Włoszech. Eco przeciwstawia w nim dwa podejścia do mediów masowych. Z jednej strony są „apokaliptycy”, którzy obawiają się upadku kultury i moralności. Z drugiej – „dostosowani”, którzy widzą w nowych technologiach medialnych siłę demokratyzującą kulturę. Wówczas Eco pisał o rozprzestrzenianiu się telewizji i radia. Dziś bardzo podobne reakcje wywołuje sztuczna inteligencja.
Eco twierdził, że oba stanowiska są zbyt skrajne. Nie pomaga ani traktowanie nowych mediów wyłącznie jako śmiertelnego zagrożenia, ani jako cudu. Zamiast tego zachęcał, by patrzeć na to, jak ludzie i społeczności używają nowych narzędzi, jakie ryzyka i szanse się pojawiają oraz jak te technologie kształtują – i czasem wzmacniają – istniejące układy władzy.
Kiedy w czasie wyborów w USA w 2024 r. prowadziłem zajęcia o tzw. deepfake’ach, lekcja Eco wróciła do mnie. W tamtym czasie część badaczy i mediów regularnie ostrzegała przed nadciągającą „apokalipsą deepfake’ów”.
Czy deepfake’i będą wykorzystywane do naśladowania głosów i wizerunków czołowych polityków i rozsyłania precyzyjnie wymierzonej dezinformacji? A jeśli w przeddzień wyborów ktoś użyje generatywnej AI, by stworzyć fałszywą wiadomość głosową z nagranym „głosem” kandydata, który wzywa zwolenników, by zostali w domu? Te obawy nie były całkowicie bezpodstawne: badania pokazują, że ludzie wcale nie są szczególnie dobrzy w rozpoznawaniu deepfake’ów. Jednocześnie zdecydowanie przeceniają swoją zdolność do ich wychwytywania.
Ostatecznie jednak apokalipsa została odroczona. Analizy powyborcze wskazują, że deepfake’i rzeczywiście mogły wzmocnić pewne istniejące tendencje polityczne, jak erozja zaufania czy polaryzacja, ale nie ma dowodów, by realnie wpłynęły na wynik wyborów.
Listy „top 10”, newsy i poradniki
Oczywiście obawy, jakie AI budzi wśród obrońców demokracji, różnią się od tych, które odczuwają pisarze i artyści. Dla nich stawką jest przede wszystkim kwestia autorstwa: jak jedna osoba ma konkurować z systemem wytrenowanym na milionach głosów, który potrafi produkować tekst z zawrotną prędkością? I jeśli to stanie się normą, co to zrobi z twórczością – zarówno jako zawodem, jak i źródłem sensu?
Warto doprecyzować, co kryje się pod sformułowaniem „treści internetowe”, którym posługuje się badanie Graphite. Analizowano ponad 65 ty. losowo wybranych tekstów liczących co najmniej 100 słów. Mogą to być zarówno recenzowane artykuły naukowe, jak i reklamowe opisy cudownych suplementów. Dokładniejsza lektura badania pokazuje, że większość tekstów generowanych przez AI to materiały o charakterze ogólnym: krótkie newsy, poradniki, teksty lifestyle’owe, recenzje i objaśnienia dotyczące produktów.
Głównym celem gospodarczym takich treści jest przekonanie lub przekazanie informacji, a nie wyrażenie oryginalności czy kreatywności. Innymi słowy, AI okazuje się szczególnie przydatna tam, gdzie w grę wchodzi pisanie schematyczne i mało ryzykowne: weekendowe listy „top 10 rzeczy do zrobienia w Rzymie”, standardowe listy motywacyjne, teksty marketingowe dla firm.
Cały sektor zawodowego pisania – w dużej mierze opartego na pracy zleconej, w tym na tłumaczeniach – opierał się właśnie na tego typu zleceniach: wpisach na blogi, materiałach poradnikowych, tekstach pod pozycjonowanie w wyszukiwarkach, treściach do mediów społecznościowych. Gwałtowne upowszechnienie dużych modeli językowych sprawiło, że wiele z tych zleceń, które dawały ludziom utrzymanie, zniknęło.
Współpraca z AI
Utrata tej pracy na taką skalę kieruje uwagę na jeszcze jedną kwestię, którą podnosi badanie Graphite: problem autentyczności. Chodzi nie tylko o to, czy potrafimy rozpoznać autora/źródło tekstu, ale także o to, jaką wartość przypisujemy ludzkiej twórczości. Jak odróżnić tekst napisany przez człowieka od tego, który wygenerowała maszyna? I czy taka umiejętność będzie w ogóle miała znaczenie?
Z czasem ten podział zapewne stanie się mniej istotny, zwłaszcza że coraz więcej tekstów będzie efektem współpracy ludzi i AI. Autor może napisać kilka zdań, poprosić system o rozwinięcie, a potem przekształcić otrzymany materiał zgodnie ze swoim zamysłem.
Nie inaczej jest z tym artykułem. Jako osoba, dla której angielski nie jest językiem ojczystym, często korzystam z AI, by dopracować warstwę językową tekstu, zanim wyślę go redaktorowi. Czasami system próbuje zmienić to, co chcę powiedzieć. Kiedy jednak pozna się jego ulubione klisze stylistyczne, można ich świadomie unikać i zachować własny ton. Warto też pamiętać, że sztuczna inteligencja nie jest „w pełni sztuczna” – uczy się na materiale stworzonym przez ludzi. Z drugiej strony, jeszcze przed epoką AI ludzkie pisanie nigdy nie było „czysto ludzkie”: każda technologia – od pergaminu i rylca, przez papier i maszynę do pisania, po współczesne edytory tekstów – wpływała na to, jak piszemy i jak czytelnicy rozumieją tekst.
Kolejny ważny punkt: modele AI są coraz częściej trenowane na zbiorach, które obejmują nie tylko teksty pisane przez ludzi, lecz także treści generowane przez inne systemy AI oraz teksty tworzone wspólnie przez ludzi i maszyny. To rodzi obawy, czy te systemy w ogóle będą w stanie dalej się udoskonalać. Niektórzy komentatorzy mówią już o rozczarowaniu po premierze nowszych, dużych modeli językowych: firmy mają coraz większe trudności z dotrzymaniem własnych obietnic.
Znaczenie głosów ludzi
Co jednak dzieje się wtedy, gdy ludzie zaczynają nadmiernie polegać na AI w pisaniu? Niektóre badania wskazują, że osoby piszące czują się bardziej twórcze, gdy używają AI do burzy mózgów, ale w praktyce wachlarz pomysłów staje się węższy. Ta ujednolicająca tendencja dotyczy też stylu: systemy często „ściągają” użytkowników w kierunku podobnych schematów językowych, co zmniejsza różnice, które zwykle świadczą o indywidualnym głosie. Badacze zwracają również uwagę na przesunięcie w stronę norm zachodnich – zwłaszcza anglojęzycznych – w pisaniu osób z innych kultur, co budzi obawy przed nową formą „kolonializmu” opartego na AI.
W takim krajobrazie teksty, które wyraźnie pokazują oryginalność, osobisty głos i świadomy zamysł stylistyczny, mogą stać się jeszcze cenniejsze – i odegrać kluczową rolę w trenowaniu kolejnych generacji modeli. Jeśli odłożymy na bok najbardziej apokaliptyczne scenariusze i założymy, że AI będzie nadal się rozwijać – być może wolniej niż dotąd – całkiem prawdopodobne jest, że przemyślane, oryginalne teksty tworzone przez ludzi zyskają na wartości. Innymi słowy: praca pisarek, pisarzy, dziennikarzy i intelektualistów nie stanie się zbędna tylko dlatego, że duża część sieci nie będzie już pisana przez ludzi.
Artykuł More than half of new articles on the internet are being written by AI – is human writing headed for extinction? ukazał się w serwisie The Conversation.
DOI: https://doi.org/10.64628/AAI.hq7x5xseg
Polecane:
-
Podcast
Czy sztuczna inteligencja umie zadawać pytania lepiej niż ludzie? Ankiety, kłamstwa i nowe narzędzia badawcze Przejdź do publikacji: Czy sztuczna inteligencja umie zadawać pytania lepiej niż ludzie? Ankiety, kłamstwa i nowe narzędzia badawcze
-
AI w rolnictwie. Szanse i bariery Przejdź do publikacji: AI w rolnictwie. Szanse i bariery
-
Artykuł
Czy „cyfrowy bliźniak mózgu” przewidzi problemy psychiczne? Przejdź do publikacji: Czy „cyfrowy bliźniak mózgu” przewidzi problemy psychiczne?
Podobne artykuły
Przejdź do publikacji: AI w lesie. Fotopułapki i liczenie dzikich ssaków
AI w lesie. Fotopułapki i liczenie dzikich ssaków Przejdź do publikacji: AI w lesie. Fotopułapki i liczenie dzikich ssaków
Przejdź do publikacji: AI zmienia to, jak tworzymy i jak rozumiemy prawdę
AI zmienia to, jak tworzymy i jak rozumiemy prawdę Przejdź do publikacji: AI zmienia to, jak tworzymy i jak rozumiemy prawdę
Przejdź do publikacji: Jak sztuczna inteligencja wzmacnia miękką propagandę