Około 2021 roku w czeluściach sieci ukazał się zagadkowy wpis, że „większość internetu” to nie działalność człowieka, lecz automatycznie generowane treści. Autor teorii głosił, że to, co czytamy, to maszynowa papka podsuwana nam, użytkownikom, pod nos i promowana za pomocą aktywności botów – cyfrowych robotów stworzonych do zarządzania algorytmami. Wszystko ma na celu manipulowanie odbiorcami, aż do całkowitego ich podporządkowania i otumanienia. We wpisie „udowadniano”, że „śmierć internetu”, takiego, jaki znaliśmy, dokonała się w latach 2016–2017. Po tym momencie sprawy miały toczyć się jak brudna kula śniegowa, zmieniając „żywą”, tworzoną przez ludzi, globalną sieć w pole gry, zdominowane przez zautomatyzowane procesy. Brzmi jak scenariusz z filmu science fiction, prawda?
Wstęp do automatyzacji (i śmierci)
Istotnie, z treściami stworzonymi automatycznie można spotkać się od dawna. Na początku zwykły użytkownik napotykał dość prymitywne „chat boty”, gdzie po wpisaniu w okienko pytania otrzymywaliśmy utrzymaną w przygłupim tonie odpowiedź na najczęściej poruszane kwestie, a w razie problemu łączono nas z konsultantem. Potem zaczęły pojawiać się proste „automatyczne” teksty, będące najczęściej mechanicznym opracowaniem danych. Tak było choćby w wypadku prognoz pogody czy danych niewymagających wielkiego zaangażowania (by wymienić pojawiający się co tydzień na wielu stronach tekst z odpowiedzią na pytanie: „czy dziś jest niedziela handlowa? – Nie, niedziele handlowe przypadają…”).
Ale boty odpowiadały również za to, jakie treści ukazywały się nam w wynikach wyszukiwania, podsuwając nam te, które „uznały” za najbardziej trafne w ramach tajemniczych algorytmów, czy reklamy – kliknąwszy w jakąś, natychmiast dostajemy dziesiątki kolejnych. To był jednak dopiero początek.
Jak czytamy, już w 2017 roku zajmująca się badaniem bezpieczeństwa sieci firma Imperva opublikowała raport, z którego wynikało, że w poprzednim roku „ponad połowa ruchu sieciowego pochodziła ze zautomatyzowanych programów, z których wiele jest złośliwych”. Bo nie ma co ukrywać – wiele automatyzowanych procesów służyło nie do poprawy działalności stron, lecz do wyłudzania danych i przeprowadzania ataków mogących na przykład zablokować dowolny serwis, czy choćby „automatycznie” wykupić bilety na atrakcyjne wydarzenie sportowe. „Przez ostatnie pięć lat co trzeci odwiedzający stronę internetową był botem atakującym” – pisał w raporcie Impervy Igal Zeifman, dyrektor ds. marketingu tej firmy. Wszystko zmierzało w nienajlepszym kierunku, ale nikt nie spodziewał się katastrofy, jaką właśnie obserwujemy. I co gorsza, do której – często nieświadomie – przykładamy rękę.
Oto w ubiegłym tygodniu pojawił się kolejny raport, z którego wynika, że obecnie ponad połowa treści (!) zamieszczanych w internecie to robota zautomatyzowanych mechanizmów opartych na sztucznej inteligencji (AI).
Jak czytamy w raporcie firmy Graphite, która zajmuje się badaniem AI:
Brzmiało jak prawdziwe
Mowa tutaj już nie o botach, ale o treściach, a więc obrazach, tekstach, filmach, słuchowiskach i co najbardziej przerażające – dyskusjach w sieciach społecznościowych. Dziś człowiek stykający się z artykułem na portalu, filmem w serwisie YouTube czy wdający się w dyskusję na Facebooku lub X (dawniej Twitter) coraz częściej może zetknąć się z wygenerowaną przez maszynę treścią. I coraz częściej nie zdaje sobie z tego sprawy.
Przykład? Moja znajoma, jedna z naszych Czytelniczek, osoba starannie wykształcona, rozpoznawalna i powszechnie lubiana, w serwisie Facebook dzieli się własnymi przemyśleniami i udostępnia treści, które uważa za ważne. Pewnego dnia zauważyłem, że zamieściła link do słuchowiska (podcastu) w serwisie YouTube, który traktował o dość dziwnej sprawie: „Stubb pouczał Polskę o wartościach… ale Nawrocki zmiażdżył go jednym słowem” – głosiła miniaturka. Kanclerz Niemiec miał polec w starciu z prezydentem RP? Wydało mi się to interesujące, ale podejrzane, nic bowiem nie słyszałem o spotkaniu obu polityków (było to jeszcze przed wizytą Nawrockiego w Niemczech). Po kliknięciu w link okazało się, że całość jest wygenerowaną przez sztuczną inteligencję (napisaną na komendę człowieka) fantazją na temat rzekomego spotkania polityków. Do tego przeczytane zostało to również przez maszynę i podane w formie zapisu audio pod powyższym chwytliwym tytułem w serwisie YouTube. Moje przerażenie było jeszcze większe, gdy okazało się, że kanał, na którym zamieszczono „relację”, specjalizuje się wyłącznie w takich treściach – wygenerowanych fake newsach o podbojach dyplomatycznych polskich polityków. Podobnych kanałów jest zresztą więcej. We wszystkich językach i na całym świecie. Zalew treści bez żadnego znaczenia, kradnących uwagę, czas i inteligencję użytkownika jest nie do powstrzymania.
Znajoma była bardzo zdziwiona, gdy ją uświadomiłem, z czym ma do czynienia. Nie miała nawet pojęcia, że coś podobnego jest możliwe. Nie dziwię się, rzecz była przecież nie tylko względnie dobrze zrobiona, ale prawdopodobna i zgodna z naszymi oczekiwaniami. Czegóż więcej trzeba, by chcieć się nią podzielić ze znajomymi?
Podobnych przypadków jest więcej. Można odnieść wrażenie, że od kilku czy kilkunastu miesięcy ściany naszych mediów społecznościowych zmieniły się nie do poznania. Zilustrowane ledwie przypominającym realne zdjęcie grafiką historyjki o „chłopczyku, który uratował pieska i nie dostał żadnego polubienia” albo „dziadku, który zrobił na drutach sweter i prosi o choć jednego lajka”, fałszywe zdjęcia pięknych ogrodów i fantastycznych wypieków, obrazki religijne przypominające grafiki rodem z książeczek dla Świadków Jehowy, rzekome „odkrycia archeologiczne” czy coraz bardziej profesjonalne filmy wygenerowane w AI, na których możemy zobaczyć na przykład polityków całujących się ze sobą albo porywanych przez kosmitów – słowem: kompletny śmietnik.
Do tego te epistoły na dowolny, najczęściej emocjonalny temat. Żerujące na nostalgii wygenerowane teksty i zdjęcia z cyklu „byliśmy młodzi”, „kiedyś to było”, historie o cudownie ocalałych z wypadków i rzekomych heroicznych wyczynach bohaterskich ludzi. Wszystko „jakoś tam prawdziwe”… To także fałszywe sklepy odzieżowe rzekomo z naszej miejscowości, jak mówią, „zamykające działalność po latach”, a de facto przekierowujące w najlepszym razie na chińskie platformy sprzedażowe zautomatyzowane reklamy. Sterty bezużytecznego cyfrowego śmiecia.
Kibice z AI i rzekomo poważni ludzie
To także treści polityczne. Ostatnio w odpowiedzi na wywieszony przez kibiców reprezentacji Polski transparent krytykujący Donalda Tuska pojawiło się rzekome „foto” kibiców, którzy mieli prezentować uderzający w Karola Nawrockiego transparent: „Batyr, matole, nic nie pomogá kibole”. Ta dość prymitywna zagrywka zdobyła wśród starszych sympatyków koalicji 13 grudnia niemałą popularność, choć na pierwszy (no, drugi) rzut oka widać było, że przecież litera „á” nie mogła się pojawić na transparencie polskich fanów (był to błąd generatora obrazów), a po powiększeniu zdjęcia widać było więcej właściwych dla AI „krzaków” – rozmazane postacie, pomieszane kolory flag itp. Foto jednak rozeszło się wśród przekonanych, zapewne promowane przez boty i trolli. A ile takich treści ma charakter prorosyjski? A ile antyukraiński? Być może widzieli Państwo film, na którym w urzędzie pracy Polak błaga ukraińską urzędniczkę o „jakąkolwiek pracę”? Tak, ten film też jest fałszywy i też wiele osób wzięło go na serio.
To wszystko więc robota ludzi, którzy za pomocą treści wytworzonych przez automat zabiegają o Państwa uwagę i kradną Wasze „lajki” (i czas), by potem sprzedawać odpowiednio „polubioną” stronę za kilka do kilkunastu dolarów. Zapewne się opłaca – koszty takiej produkcji są niemal żadne, więc tworzenie śmieci idzie pełną parą. Ale to także doskonałe narzędzie dla ekspertów od siania dezinformacji i dywersji. Treści są bowiem coraz lepsze i coraz trudniej je zweryfikować, tym bardziej w emocjach.
Niestety – rzecz dotyka także profesjonalnych, wydawałoby się poważnych użytkowników. Nie brak ludzi, którzy w pogoni za popularnością i bijąc się o uwagę odbiorcy przestają tworzyć samodzielnie, „zlecają tematy” sztucznej inteligencji i… publikują jako swoje. Teksty takie można, co prawda, po jakimś czasie rozpoznać – są pomimo pozornej spójności pełne nieścisłości, abstrakcyjnych metafor czy dziwacznej składni. Dla ich „zleceniodawców” to jednak żaden problem – liczy się liczba i szybkość, a nie jakoś
.
Znam przypadek z popularnego kanału YouTube, gdzie początkującemu dziennikarzowi zlecono przygotowanie najbarwniejszych cytatów polityków po 1989 roku. Gdy wrócił z zestawem, starsi dziennikarze polityczni bardzo się zdziwili, ponieważ nie znali większości z nich. Okazało się, że delikwent ów zapytał o to duży model językowy (ChatGPT) lub inny, który odpowiedział „poprawnie językowo, ale fałszywie merytorycznie”. Zwie się to „halucynacją AI” i jest wciąż występującym (choć trzeba przyznać, coraz rzadziej) błędem sztucznej inteligencji, która idąc po linii najmniejszego oporu „wymyśla” odpowiedzi na nasze pytania. Dla delikwenta był to ostatni dzień w pracy.
Innym razem sam na podobnej lewiźnie złapałem znanego prawnika – publicystę, który pisuje do rzekomo poważnych mediów. Jego wpis w serwisie X spełniał wszelkie znamiona „wygenerowanego” – był obły, ledwo dotykał tematu i czytało się go jak pomieszanie tromtadracji z przepisem kulinarnym.
Do tego zawierał „odcisk palca” właściwy dla takich treści – utarte związki frazeologiczne (na przykład „to nie tylko X – to Y!”) oraz długą pauzę: „—ˮ.
Ten nieużywany w luźnej komunikacji internetowej symbol jest z jakichś powodów nadużywany w tekstach „wypluwanych” przez AI, gdy go spotkacie obok innych podejrzanych elementów, miejcie się na baczności. Nasz bohater nie zareagował jednak na wytknięcie mu posługiwania się sztuczną inteligencją do „formułowania własnych myśli”, ale nie zaprzeczył – sprawa była zbyt oczywista. Podobnych magików jest więcej, wystarczy bowiem kilka sekund, by dostać „gotowca” na dowolny temat (o problemach w szkołach napiszę chyba osobny tekst).
Sterty śmieci do przerzucenia
Problem robi się więc coraz poważniejszy. To nie tylko nadprodukcja internetowego śmiecia, sprawiająca, że coraz trudniej w jego zalewie trafić na wartościowe treści. To także idąca równolegle „analfabetyzacja” użytkowników, którzy przyzwyczajani do coraz częstszej ich obecności popadają w apatię, bezwiednie przewijając strony www i ściany serwisów społecznościowych, pełne błahych, mających w najlepszym razie znikomą wartość grafik i tekstów.
W tym kontekście internet naprawdę staje się „martwy”, niestety razem ze swoistą śmiercią mózgów jego użytkowników. Co gorsza, trudno sobie wyobrazić odwrót od tego zjawiska – jest ono bardzo tanie i powszechnie dostępne, a zarabiających na nim przybywa – od wielkich firm zajmujących się AI, przez nieuczciwych twórców, do oszustów sprzedawców śmieci. Po co pisać do internetu pogłębiony tekst z duszą (jak mam nadzieję ten), skoro sztuczna inteligencja w tym czasie może napisać wiele tekstów w wielu językach, niemal samodzielnie je opublikować, skomentować i wypromować w serwisach społecznościowych? W jakim celu robić fotografię, skoro „dowolną rzecz” można wygenerować niemal zerowym kosztem? Sprawa jest na tyle poważna, że całkiem niedawno sam Altman, współzałożyciel firmy OpenAI i współtwórca ChataGPT, orzekł, że „coś może być na rzeczy”, bo widzi to na podstawie aktywności zarządzanych za pomocą AI kont na Twitterze.
To dlatego coraz większą popularność (zapewne nie tak dużą jak internetowy śmietnik) zdobywa radykalna postawa „kontrrewolucji”, polegającej na czerpaniu ze źródeł offline – książek, gazet, spotkań twarzą w twarz z żywymi ludźmi. To coś na kształt wyjścia z Matrixa. Takie zachowanie jest poza wszystkim ożywcze dla mózgu, wie o tym każdy, kto ostatnio czytał książkę, gazetę, pisał coś ręcznie lub był na spotkaniu w Klubach „Gazety Polskiej”, czy choćby w bibliotece, by poszukać czegoś bez pomocy wyszukiwarki i ekranu telefonu lub komputera. Da nam to oddech i rezerwę wobec wszystkiego, co spotykamy w sieci. Można też włączyć radio lub telewizor, gdzie wciąż są „żywi” ludzie.
AI wie swoje
Gdybym chciał, zleciłbym ten tekst sztucznej inteligencji i poszedł na piwo. ChatGPT lub Grok napisaliby go w kilka minut, a ja tylko poprawiłbym nieliczne błędy. Nie mam jednak przekonania, że redakcja by go kupiła i czy chcieliby Państwo przeczytać to z przyjemnością. Oczywiście nie mam też pewności, że czytujecie mnie z wielką frajdą, zawsze jednak lepiej wiedzieć, że po drugiej stronie stoi ktoś, kto myśli i czuje, a nie jest pomieszaniem robota z algorytmem. I niestety – w tym wydaje się tkwić jedyna szansa na zmianę sytuacji. Jeśli liczba zniechęconych sieciowym śmietnikiem przekroczy masę krytyczną, będą musiały pojawić się ograniczenia dla takich treści, bo biznes przestanie się opłacać. Czy można na to liczyć? Pewnie tak, bo przecież tracą na tym „realni twórcy” i właściciele praw autorskich. Oznacza to jednak długą wojnę z niewiadomym skutkiem.
Co do powszechnej „kontrrewolucji offline”, to znając ludzkie lenistwo i potrzebę bycia „online” – niekoniecznie jest ona możliwa. Zresztą całkowite odcięcie się od sieci jest coraz mniej realne. Pozostaje więc świadomość tego, co się dzieje i bardzo selektywne korzystanie z zasobów umierającego na naszych oczach internetu. Teoria spiskowa (po raz kolejny) staje się smutną rzeczywistością, choć jak to zazwyczaj bywa – nie tak spektakularną, jak ją wieszczono.