W tym roku Wikipedia obchodzi dwudziestą piątą rocznicę istnienia. Jest największą encyklopedią w historii ludzkości z ponad 66 mln artykułów w ponad 340 językach. Świat akademicki, który powinien być jej naturalnym sojusznikiem, przez ćwierć wieku traktował ją jednak z mieszaniną podejrzliwości i wyższości
Akademicki sceptycyzm wobec Wikipedii ma długą historię, ale słabe podstawy empiryczne. Już w 2005 r. prestiżowe czasopismo Nature opublikowało badanie porównujące dokładność Wikipedii z Encyclopaedia Britannica. Wyniki okazały się porównywalne (Giles, 2005). Późniejsze badania potwierdziły, że specjalistyczne artykuły, szczególnie z zakresu medycyny i psychologii, często stanowią rozsądną alternatywę dla źródeł profesjonalnych (Shafee i in., 2017; Banasik-Jemielniak i in., 2022). Sam projekt GeneWiki, obejmujący ponad 11 tys. stron o ludzkich genach i białkach, oglądany jest 50 mln razy rocznie.
Mimo to wielu naukowców nadal zabrania studentom cytowania Wikipedii, choć jednocześnie sami po cichu z niej korzystając. Ta hipokryzja ma wymiar empiryczny: badania wykazują, że artykuły naukowe cytowane przez Wikipedię otrzymują mierzalny wzrost liczby cytowań i wpływu społecznego (Jemielniak i in., 2019). Wikipedia demokratyzuje dostęp do wiedzy dla miliardów ludzi, szczególnie w krajach o niskich i średnich dochodach, podczas gdy większość publikacji akademickich pozostaje za płatnymi zaporami.
Teoretyczne wyjaśnienie sukcesu Wikipedii dostarcza koncepcja peer production opartej na wspólnych zasobach (commons-based peer production), rozwinięta przez Yochaia Benklera (2006) w The Wealth of Networks.
Peer production odnosi sukces, gdy spełnione są trzy warunki: zadania muszą być modularne, granularność musi być dostatecznie drobna, a mechanizmy integracji muszą skutecznie agregować wkłady w spójne wyniki. Wikipedia spełnia wszystkie te warunki z niezwykłą elegancją – edycja może być tak drobna jak poprawienie literówki lub tak obszerna jak napisanie całego artykułu. Wikipedia jest też paradygmatycznym przykładem „społeczeństwa współpracy” – zjawiska spontanicznej kooperacji nieznajomych za pośrednictwem komunikacji komputerowej (Jemielniak i Przegalińska, 2020).
Noblowskie badania Elinor Ostrom (1990) nad zarządzaniem wspólnymi zasobami (the commons) pomagają zrozumieć zarówno siły, jak i słabości Wikipedii. Społeczności, które dają uczestnikom realną sprawczość nad regułami rządzącymi ich wspólnym zasobem, rozwijają silne tożsamości instytucjonalne, ale te tożsamości mogą rodzić odruchowo konserwatywne impulsy (Jemielniak, 2016). Mechanizmy, które podtrzymują zaangażowanie, mogą prowadzić do koncentracji na sprawach istniejących uczestników kosztem potrzeb tych, którym instytucja ma służyć.
Ten wzorzec obronnej biurokratyzacji udokumentowali Halfaker i współpracownicy (2013) w wpływowym studium The Rise and Decline of an Open Collaboration System. Ich analiza wykazała, że przejście Wikipedii od błyskawicznego wzrostu do stopniowego spadku zaangażowania około 2007 r. było napędzane własnymi mechanizmami kontroli jakości społeczności. Narzędzia i polityki przeciwdziałające wandalizmowi stworzyły nieprzyjazne środowisko i nieformalną hierarchię między tymi, którzy znają i egzekwują normy, a tymi, którzy ich nie znają. Akumulacja biurokracji na Wikipedii jest ogromna (Jemielniak, 2014), a sama Wikipedia nieuchronnie poddała się żelaznemu prawu oligarchii (Konieczny, 2009).
Najpoważniejsze zagrożenie dla Wikipedii może jednak nie być ani technologiczne, ani kulturowe lecz wynikać z pasożytniczej relacji z firmami rozwijającymi sztuczną inteligencję. Wielkie modele językowe takie jak ChatGPT, Claude czy Gemini zostały w znacznej mierze wytrenowane na treściach Wikipedii. Jak zauważyła Wikimedia Foundation: „każdy LLM jest trenowany na treściach Wikipedii i prawie zawsze jest to największe źródło danych treningowych w ich zbiorach” (Deckelmann, 2023).
Firmy AI czerpią bez oddawania i nie podają źródła, gdy ich chatboty powtarzają informacje pochodzące z Wikipedii. Co najważniejsze, przerywają pętlę sprzężenia zwrotnego, która podtrzymuje bazę kontrybutorów Wikipedii.
Ironia jest gorzka. Badania opublikowane w Nature przez Shumailova i współpracowników (2024) wykazały, że modele AI trenowane na treściach wygenerowanych przez AI cierpią na „zapaść modelu” – degeneracyjny proces, w którym modele stopniowo tracą informacje o rzeczywistym rozkładzie danych. LLM-y potrzebują stałego dopływu oryginalnych treści generowanych przez ludzi. Są pasożytami, które ostatecznie zabiją swojego żywiciela, niszcząc własne źródło pożywienia. Wikipedia reprezentuje dokładnie ten rodzaj wysokiej jakości treści, która może zapobiec kolapsowi modelu, a jednak obecna relacja ekstrakcyjna zagraża zdolności Wikipedii do produkcji takich treści (Vetter i in., 2025).
Co w tej sytuacji powinien zrobić świat akademicki? Po pierwsze, czas na aktywne zaangażowanie. Każdy naukowiec powinien zacząć wnosić swoją wiedzę do Wikipedii – nie jako działalność charytatywną, ale jako podstawowy obowiązek. Szkoły medyczne, takie jak University of California w San Francisco, już pioniersko wprowadziły kursy edytowania Wikipedii, w których studenci poprawiają artykuły zdrowotne. American Association for Psychological Science promuje podobne podejście. Ten model powinien stać się uniwersalny, ponieważ uczy studentów kluczowych umiejętności: oceny źródeł, syntezy informacji, jasnego pisania i współpracy, jednocześnie poprawiając światowe zasoby wiedzy.
Po drugie, uniwersytety muszą uznawać wkład do Wikipedii w recenzjach awansowych i decyzjach o tenure. W Polsce minister Karolina Zioło-Pużuk zapowiada, że będzie cenić popularyzację wiedzy w ramach oceny dorobku naukowego. Abstrahując od sensowności łączenia tych dwóch różnych typów działalności w jeden wskaźnik, warto zauważyć, że akurat edytowanie Wikipedii powinno być w ramach oceny popularyzacji doceniane bardzo wysoko.
Jeśli cenimy „transfer wiedzy” i „zaangażowanie publiczne”, co lepiej je demonstruje niż ulepszanie zasobu, z którego miliardy ludzi korzystają przy podejmowaniu decyzji zdrowotnych, poszerzaniu rozumienia nauki i dalszej edukacji?
System nagród, który ceni publikacje za paywallem ponad swobodnie dostępne informacje, jest nie tylko przestarzały – jest szkodliwy.
Podobnie, choć popularyzacja wiedzy na TikToku czy Instagramie ma zalety, to jednocześnie przyczynia się do promowania sposobu konsumpcji wiedzy z mediów, które w dużym stopniu sieją dezinformację.
Wikipedia pozostaje czymś bezprecedensowym: jedyną znaczącą platformą, na której prawda wyłania się poprzez przejrzystą debatę, a nie algorytmiczną nieprzejrzystość czy interesy korporacyjne. Każda edycja jest rejestrowana, każda dyskusja archiwizowana. W erze halucynacji AI, czarnoskrzynkowych algorytmów i powszechnej dezinformacji ta radykalna przejrzystość stała się jeszcze bardziej niezbędna.
Niepowodzenie naukowców we wspieraniu Wikipedii przy jednoczesnym czerpaniu z niej korzyści to nie tylko hipokryzja – to zdrada naszej misji tworzenia i rozpowszechniania wiedzy. Jeśli nie zaczniemy działać teraz, ryzykujemy utratę największego ludzkiego projektu współpracy na rzecz tych samych systemów AI, które pomogła wytrenować.
Literatura
Banasik-Jemielniak, N., Jemielniak, D. i Wilamowski, M. (2022). Psychology and Wikipedia: Measuring psychology journals’ impact by Wikipedia citations. Social Science Computer Review, 40(3), 756-774. https://doi.org/10.1177/0894439320932508
Benkler, Y. (2006). The wealth of networks: How social production transforms markets and freedom. Yale University Press.
Deckelmann, S. (2023, 12 lipca). Wikipedia’s value in the age of generative AI. Wikimedia Foundation. https://wikimediafoundation.org/news/2023/07/12/wikipedias-value-in-the-age-of-generative-ai/
Giles, J. (2005). Internet encyclopaedias go head to head. Nature, 438, 900-901. https://doi.org/10.1038/438900a
Halfaker, A., Geiger, R. S., Morgan, J. T. i Riedl, J. (2013). The rise and decline of an open collaboration system. American Behavioral Scientist, 57(5), 664-688. https://doi.org/10.1177/0002764212469365
Jemielniak, D. (2014). Common knowledge? An ethnography of Wikipedia. Stanford University Press.
Jemielniak, D. (2016). Wikimedia movement governance: The limits of a-hierarchical organization. Journal of Organizational Change Management, 29(3), 361-378. https://doi.org/10.1108/JOCM-07-2013-0138
Jemielniak, D., Masukume, G. i Wilamowski, M. (2019). The most influential medical journals according to Wikipedia: Quantitative analysis. Journal of Medical Internet Research, 21(1), e11429. https://doi.org/10.2196/11429
Jemielniak, D. i Przegalińska, A. (2020). Społeczeństwo współpracy, Warszawa: Wydawnictwo Naukowe Scholar
Konieczny, P. (2009). Governance, organization, and democracy on the Internet: The Iron Law and the evolution of Wikipedia. Sociological Forum, 24(1), 162-192. https://doi.org/10.1111/j.1573-7861.2008.01090.x
Ostrom, E. (1990). Governing the commons: The evolution of institutions for collective action. Cambridge University Press.
Shafee, T., Masukume, G., Kipersztok, L., Das, D., Häggström, M. i Heilman, J. (2017). Evolution of Wikipedia’s medical content: Past, present and future. Journal of Epidemiology & Community Health, 71(11), 1122-1129. https://doi.org/10.1136/jech-2016-208601
Shumailov, I., Shumaylov, Z., Zhao, Y., Papernot, N., Anderson, R. i Gal, Y. (2024). AI models collapse when trained on recursively generated data. Nature, 631, 755-759. https://doi.org/10.1038/s41586-024-07566-y
Vetter, M. A., Jiang, J. i McDowell, Z. J. (2025). An endangered species: How LLMs threaten Wikipedia’s sustainability. AI & Society, 40(6), 4309-4322. https://doi.org/10.1007/s00146-024-02148-8