Jak nowoczesne algorytmy kształtują przepływ informacji
| Autorka: Weronika Cygan-Adamczyk |
Podczas burzliwego spotkania Donalda Trumpa z Wołodymyrem Zełenskim w lutym 2025 roku, kiedy amerykański prezydent próbował dać ukraińskiemu partnerowi do zrozumienia, że jest on w słabej pozycji do negocjacji, użył w rozmowie angielskiego idiomu: nie masz kart. Zełenski wówczas wstał i wyjął z rękawa talię kart, którą zasypał zdziwionego i kulącego się od tej karcianej powodzi Trumpa. Jest też inna wersja, w której Ukrainiec wyprowadza zgrabny prawy sierpowy w niczego niespodziewającego się prezydenta i go nokautuje. Naprawdę tego nie widzieliście?
Wspomniana wizyta w Białym Domu zapisała się w historii dyplomacji przez skandaliczne zachowanie Trumpa, ale ani karciana fontanna, ani bokserski pojedynek się nie wydarzyły. Były jednak reakcjami internautów na głośny polityczny incydent, będący inspiracją dla licznych memów czy przeróbek. W ostatnich latach coraz częściej ich tworzenie wspierają wszelakie narzędzia oparte na generatywnej sztucznej inteligencji, dzięki którym znacznie łatwiej i szybciej można wyprodukować „virala”. To humorystyczne oblicze sztucznej inteligencji nie powinno jednak odciągać uwagi od sytuacji, w których jej użycie bywa dużo subtelniejsze, ale przez to znacznie groźniejsze.
AI naszą zgubą?
AI trochę się boimy, trochę nas intryguje. Podnieca perspektywa wykorzystania jej czy to w medycynie, by polepszyć diagnostykę, czy to w nudnej biurowej pracy do zautomatyzowania żmudnych i męczących procesów, albo w laboratoriach do efektywniejszej analizy zebranych danych. Często też niepokoi widmo masowych zwolnień i utraty pracy, bo przecież sztuczna inteligencja wszystko robi szybciej i jest tańsza od Jana Kowalskiego, który czasem bierze urlop albo idzie na L4.
Ta wszechobecna ostatnimi czasy, odmieniana przez wszystkie przypadki sztuczna inteligencja w wielu sytuacjach i przy okazji licznych medialnych dyskusji bywa pustym sloganem. Z jednej strony bagatelizuje się jej znaczenie, a innym razem przypisuje się jej świadomość i prawie boskie moce. Łatwo zapomnieć, że to nie żaden Arcykapłan Informacji, ale artifical intelligence, czyli program, za którym stoją znane od dekad mechanizmy. Ponieważ jednak rozwój technologii przyspiesza, dopiero w ostatnim czasie odkrywamy prawdziwy potencjał AI, który w latach 50. XX wieku część ekspertów pewnie przeczuwała, ale nikt chyba nie spodziewał się skali i tempa zachodzących zmian.

Fot. Freepik AI

Burzliwe spotkanie Zełenskiego z Trumpem stało się inspiracją dla wielu komicznych przeróbek z wykorzystaniem AI | obraz wygenerowany przez Freepik
Dziś narzędzia oparte na sztucznej inteligencji są wykorzystywane praktycznie wszędzie, ale różne jest do nich podejście i odmienne bywają jej zastosowania. Dr inż. Tomasz Wesołowski, informatyk z Wydziału Nauk Ścisłych i Technicznych Uniwersytetu Śląskiego, przytacza wyniki badań opublikowanych w 2024 roku w czasopiśmie „JAMA Network Open”, których celem było zmierzenie zaufania lekarzy do stosowania AI przy rozpoznawaniu chorób. Sprawdzono skuteczność diagnozy ekspertów i AI osobno, a następnie to, jak człowiek i sztuczna inteligencja radzą sobie w duecie. Okazało się, że trafność wynosiła odpowiednio 74% u lekarzy, 95% u AI, a w przypadku połączenia sił było to… 76%.
– Lekarze w ogóle nie ufali algorytmom i odrzucali ich sugestie. I wiemy dlaczego. Ponieważ do końca nie umiemy stwierdzić, jak to AI działa. Znamy zasady, ale nikt na świecie nie jest w stanie powiedzieć, z jakiego powodu podjęła ona taką, a nie inną decyzję. Nie zmienia to faktu, że sztuczna inteligencja potrafi dawać świetne wyniki – tłumaczy informatyk z UŚ.
Niepewność tego, jak AI „myśli”, może zmniejszać zaufanie do niej. Jednocześnie nie sposób odmówić jej przydatności. W końcu może w kilka chwil przeanalizować tak ogromną ilość danych, jakiej nie byłby w stanie objąć umysłem jeden człowiek w całym swoim życiu. To właśnie z tego powodu tak wiele nadziei wiąże się z nią w nauce i nowych technologiach. Pozwala odciążać ludzi w trudnych i czasochłonnych procesach, dając przy tym szansę na spożytkowanie ich sił w obszarach, w których ludzka kreatywność i wyobraźnia mogą być dużo bardziej przydatne.
W powyższym wniosku pobrzmiewa jednak więcej myślenia życzeniowego i niepoprawnego optymizmu, bo już teraz widzimy mnóstwo negatywnych skutków wykorzystania AI. Przecież sztuczna inteligencja jako narzędzie miała nam pomóc w sprawniejszym wyszukiwaniu informacji, przetwarzaniu danych, łatwiejszym dostępie do wiedzy. I nawet jeśli w wielu sytuacjach rzeczywiście tak się stało, to przy okazji dostaliśmy pakiet nowych problemów: zalew dezinformacji, nowe sposoby manipulacji i wtórny analfabetyzm połączony z intelektualnym lenistwem.
Homo algorithmicus
Jeśli pomyśleliście, że kto jak kto, ale wy na pewno nie nabralibyście się na żadnego fake’a, a manipulację wychwycicie na pierwszy rzut oka, to być może rzeczywiście jesteście odporniejsi i bardziej świadomi. Nie warto jednak wystawiać się na próbę, a przy okazji na kompromitację – i dlatego trzeba sprawdzać także te najbardziej zaufane źródła. Nawet swojego wykładowcę!– Ja sam kilka lat temu przeprowadziłem eksperyment. Kazałem swoim studentom przeliczyć adres logiczny na fizyczny w procesorze 8086. Na zajęciach podałem informację, jak się to robi. Jednocześnie na potrzeby eksperymentu zdefiniowałem na Wikipedii fałszywą, błędną metodę rozwiązania tego zadania, a także załączyłem przykład, który pojawił się na moich ćwiczeniach. Blisko 80% studentów użyło właśnie tej metody. Bez zastanowienia ją przepisali. Ponieważ nie uważali na zajęciach, zmuszeni byli sami szukać sposobu rozwiązania zadania i użyli bezkrytycznie tego, który udało im się znaleźć – opowiada dr inż. Tomasz Wesołowski.
Studenci raczej nie zakładali, że wpadną w taką pułapkę, i to ze strony uczącego ich badacza, który w prosty sposób pokazał im, jaką rolę w manipulacji odgrywa zaufanie. Informatyk z UŚ podkreśla, że sprytni oszuści doskonale wiedzą, jak cenną jest ono walutą. Korzystać z niej mogą na wiele wymyślnych sposobów, ale dzięki AI jest to jeszcze prostsze. Nawet nie zdajemy sobie sprawy, jak chętnie i swobodnie zdarza nam się dzielić wrażliwymi wiadomościami z naszego życia. Imię kota, urodziny córki, nazwisko panieńskie matki – wszystko to może posłużyć do kradzieży naszej tożsamości.
Narzędzia oparte na sztucznej inteligencji rozwinęły już istniejące sposoby manipulacji, a ponadto dodały nowe. Nie musisz kogoś podsłuchiwać i deptać mu po piętach – wystarczy, że przejrzysz jego media społecznościowe. Jeśli publikuje dużo zdjęć czy filmów, pewnie uda ci się wygenerować jego podobiznę świetnie imitującą styl wypowiedzi i gesty. Nawet to, w jaki sposób wstukujemy przyciski na klawiaturze, może posłużyć do rozpoznania użytkownika, co w swoich badaniach analizował dr inż. Tomasz Wesołowski. Jesteśmy społeczeństwem, które pozostawia po sobie mnóstwo śladów w internecie, dlatego warto, byśmy robili to świadomie. Jeśli nasze działania w sieci będą skutkować odpowiednio sprofilowanymi reklamami lub podpowiedziami filmów do obejrzenia, nie będzie to dużym problemem. Gorzej, gdy trafimy na oszustów czy padniemy ofiarą dezinformacji.
Pod wpływem AI drastycznie zmienił się sposób pozyskiwania przez nas wiedzy. Gdy potrzebujemy coś sprawdzić, automatycznie sięgamy do internetu i zwykle satysfakcjonuje nas pierwszy wynik w przeglądarce. Robią tak nie tylko młodsi użytkownicy. Starsze osoby, coraz lepiej zaznajomione z nowymi technologiami, też zwracają się do „wujka Google”. I jedni, i drudzy bywają bezrefleksyjni w konsumowaniu treści, których nie chce im się zweryfikować lub po prostu nie mają na to czasu.
„Bijący się” prezydenci Ukrainy i USA będą dla zdecydowanej większości dość jaskrawą formą użycia AI, ale sporo innych przypadków pozostanie mniej oczywistych i trudniejszych do rozpoznania. Nagrania z zamieszek w jakimś miejscu, do tego opatrzone sugestywnym opisem, często uruchamiają w nas najpierw emocje zamiast rozsądku, a ponieważ ich celem jest wprowadzenie zamętu, a nie rozrywka, może to prowadzić do wielu groźnych konsekwencji.
Gwałtowny rozwój generatywnej sztucznej inteligencji, a zwłaszcza eksplozja w ostatnich paru latach różnych LLM-ów (dużych modeli językowych w rodzaju ChataGPT) i generatorów f ilmów lub muzyki w oparciu o tekst (np. Midjourney, Sora), sprawiły, że niemal całkowicie zmienił się sposób generowania i przetwarzania przez nas treści w sieci. Skala tych zmian wciąż jest przytłaczająca, dlatego tym bardziej konieczne jest nauczenie się poruszania w tej przestrzeni w sposób odpowiedzialny, świadomy i rozsądny.
– Uważam, że jesteśmy w stanie zachować kontrolę w świecie AI. Podstawą jest weryfikacja źródeł zanim zaczniemy jakąś informację udostępniać dalej, bo powielanie fałszywych treści może przynieść dużą szkodę. Najważniejsze jest po prostu zachowanie zdrowego rozsądku – podsumowuje dr inż. Tomasz Wesołowski.
Artykuł pt. „Jak nowoczesne algorytmy kształtują przepływ informacji” ukazał się w numerze 1(13)/2026 „No Limits”.
