Nowe technologie najczęściej wchodzą do codzienności po cichu. Zaczynają jako narzędzia pomocnicze, by szybko stać się infrastrukturą, której przestajemy zauważać. Tak było z telemedycyną, biometrią, algorytmami rekomendacji czy cyfrowymi narzędziami wspierającymi pracę lekarzy i naukowców. Właśnie ta „przezroczystość” jest jednym z kluczowych znaków współczesnej technologii — działa najlepiej wtedy, gdy znika z pola widzenia. Problem w tym, że wraz z wygodą rośnie nasza zależność od systemów, których zasad działania najczęściej nie rozumiemy
W ochronie zdrowia stawka jest szczególnie wysoka. Algorytmy mogą wspierać analizę obrazów medycznych, porządkować dokumentację, ułatwiać zdalną opiekę i oszczędzać czas, którego lekarzom chronicznie brakuje. To mogłoby oznaczać więcej uwagi dla pacjenta, mniej biurokracji i szybsze wychwytywanie niepokojących sygnałów. Im większa rola systemów cyfrowych w diagnozie i leczeniu, tym bardziej palące staje się jednak pytanie o odpowiedzialność. Kto odpowiada za błąd: lekarz, twórca algorytmu, firma wdrażająca system, a może instytucja, która dopuściła go do użycia? Technologia może wspierać decyzję, ale nie znosi odpowiedzialności za jej skutki.
To napięcie dobrze pokazuje szerszy problem prawa wobec AI. Technologie rozwijają się szybciej niż przepisy, a regulacje mają charakter reaktywny. Najpierw pojawia się narzędzie, potem masowa praktyka, dopiero na końcu refleksja prawna. Unijny AI Act jest próbą uporządkowania tej rzeczywistości, ale nie rozwiązuje wszystkich problemów. Wprowadza kategorie ryzyka, ogranicza część zastosowań i nakłada obowiązki na dostawców systemów, jednak nie odpowiada wprost na wiele pytań dotyczących odpowiedzialności cywilnej i karnej. W praktyce oznacza to, że prawo często operuje dziś przepisami tworzonymi dla zupełnie innej rzeczywistości technologicznej.
Szczególnie drażliwy jest temat biometrii i danych. Z jednej strony technologie rozpoznawania cech fizycznych upraszczają dostęp do usług i zwiększają wygodę. Z drugiej tworzą ryzyko znacznie głębszej kontroli niż tradycyjne systemy identyfikacji. Gdy dane o zdrowiu, lokalizacji, emocjach czy nawykach stają się paliwem dla cyfrowych usług, pytanie o prywatność przestaje być dodatkiem. Staje się pytaniem o władzę i o to, kto kontroluje informację o człowieku i do jakich celów może ją wykorzystać.
W nauce nowe technologie przynoszą równie ambiwalentny efekt. Ułatwiają przeszukiwanie literatury, porządkowanie wiedzy i pracę na dużych zbiorach danych. Mogą przyspieszać analizę i wspierać pisanie. Ale właśnie tu pojawia się pokusa najprostsza i najbardziej niebezpieczna: zastąpienia pracy intelektualnej automatem, który tylko pozornie rozwiązuje problem. Generatywna AI może pomagać w streszczaniu czy redakcji, ale równie łatwo staje się narzędziem produkcji tekstów, które omijają sens uczenia się, prowadzenia badań i odpowiedzialności za własny warsztat. To nie jest tylko kwestia techniczna. To pytanie o standardy rzetelności w nauce i edukacji.
O tym, dlaczego nowe technologie są nie tylko zestawem użytecznych narzędzi Karolina Głowacka rozmawia w podcaście Etyka i rzetelność w nauce z dr hab. Justyną Esterą Król-Całkowską z Uczelni Łazarskiego i Uniwersytetu Medycznego w Łodzi oraz z Jackiem Mańko z Akademii Leona Koźmińskiego. Całego odcinka można posłuchać tutaj.