Chałkoń, boomertrapy i ewolucja cyberzagrożeń
Niedawno na polskim Internecie furorę zrobił chałkoń – koń z chałki, który zrobiła dzielna dziewczyna, której nikt nie pogratulował. Grafika obiegła media społecznościowe, a inne firmy oraz przedsiębiorcy szybko podłapali temat, tworząc własne wariacje – chałkrokodyle, chałkoloty, chałkarki (chałko-drukarki), a nawet pojawił się tomachałk. To świetny przykład RTM – real time marketingu – oraz tego, jak wykorzystać popularny trend do promocji swojej marki czy oferty, tym samym dokładając nieco do karuzeli śmiechu. Teraz, gdy chałkończy galop dobiegł końca, zastanówmy się, jakie wnioski niesie ten fenomen – oraz czego możemy się z niego nauczyć.
Podsumowanie artykułu
Fenomen chałkonia stał się symbolem zarówno kreatywnego wykorzystania trendów internetowych, jak i problemów związanych z masowo generowanymi treściami AI. AI slop, boomer bait i mechanizmy engagement farmingu pokazują, jak algorytmy społecznościowe sprzyjają rozprzestrzenianiu treści o niskiej wartości merytorycznej, manipulując emocjami użytkowników. Kluczowe wnioski to proaktywność, potrzeba edukacji cyfrowej, wzmocnienia narzędzi do identyfikacji treści generowanych przez AI oraz regulacji zapobiegających wykorzystywaniu tego rodzaju mechanizmów w złych intencjach. Ostatecznie, odpowiedzialność za kształt internetu spoczywa na użytkownikach, platformach oraz ustawodawcach – tylko świadome korzystanie z mediów może ograniczyć negatywne skutki tych zjawisk.
AI slop – chałkoń jaki jest, każdy widzi
Chałkoń powstał na początku stycznia jako post na fanpage’u “Polska w dużych dawkach”, w charakterze ironicznym – wyśmiewał rosnący trend postowania na Facebooku grafik, które przedstawiają przeróżne osoby i sytuacje – farmerów, utalentowanych twórców dzieł sztuki i technologii, czy – jako swoisty powrót do przeszłości – życzenia dobrego szczęścia i zdrowia w zamian za polajkowanie lub udostępnienie posta. Oczywiście okraszone równie ciekawą grafiką. Wszystkie łączy fakt, że są wygenerowane przez AI, przez co wprawne oko potrafi dostrzec ich nieszczerość, a niektóre grafiki, tak jak ów chałkoń, cechuje dawka absurdu.
Taki content zyskał miano AI slop – w luźnym tłumaczeniu, pomyje (wygenerowane przez) AI. Jest to termin określający masowo generowane przez sztuczną inteligencję treści o dość niskiej wartości merytorycznej, które są łatwe do wyprodukowania niskim kosztem czasu i nakładem pracy zalewają Internet.
Warto nadmienić, że nie ogranicza się tylko do grafik. Przykładem są strony publikujące automatycznie wygenerowane artykuły sportowe czy poradniki, które często wprowadzają w błąd lub są pozbawione sensu. Ostatnio pojawiają się także video – czy to w formacie rolek, czy wielkoformatowe filmy. Nieraz są to recyklowane treści na podstawie innych, już istniejących (np. TOP 5 najostrzejszych papryk na świecie na podstawie jakiegoś artykułu w Internecie bądź istniejącego już filmu); na YouTube można także znaleźć wymyślone przez AI, niezgodne z prawdą treści (wypatrzyliśmy między innymi kanał, który “zmyśla” wypadki na kolejkach górskich – polecamy świetny anglojęzyczny materiał na ten temat).
Przechodzimy zatem do sedna sprawy: co sprawia, że te treści się “klikają” i co za sobą niosą?
Ekonomia śmieciowego kontentu
Na polskim internecie AI slop zdecydowanie najpopularniejszy jest na Facebooku. Podczas przeglądu profili są to zazwyczaj fanpages przekazujące je dalej – choć nie zawsze składają się wyłącznie z wygenerowanych grafik. Grafiki te zawierają opisy, które zachęcają do interakcji, niemal zawsze wykorzystując jakieś zależności emocjonalne – nikt jej nie pogratulował, nie przywitasz się ze mną, bo jestem farmerem, i tak dalej. Wzbudza to empatię i zachęca do pozostawienia miłego słówka i lajka. Tym samym trafiasz w sidła – Facebook poznaje, co wywołało u ciebie pozytywną reakcję, i zaczyna serwować Ci więcej podobnych treści, Ty znowu reagujesz, a właściciele tych profili uzyskują właśnie to, na co liczyli.
Praktyka ta nazywa się engagement farming, a w Polsce często nazywa się to “farmą lajków”. Właściciele profili tworzą treści zaprojektowane tak, aby maksymalizować interakcje użytkowników – polubienia, komentarze i udostępnienia – za pomocą clickbaitu, manipulacji emocjonalnej oraz furory. Algorytmy platform społecznościowych promują takie treści na podstawie interakcji użytkowników, co prowadzi do ich szerokiego rozpowszechnienia. Stąd też sam chałkoń zaczął “galopować”, ciągnąc za sobą inne podobne treści.
Taka praktyka prowadzi do zalewu niskiej jakości treści, utrudniając użytkownikom dostęp do rzetelnych informacji, ale co istotniejsze, tworzenie AI slop jest napędzane głównie przez chęć zysku. Profile (i w szerszym kontekście strony internetowe czy blogi) publikujące takie treści przyciągają ruch, który następnie monetyzują. W przypadku profili na Facebooku czy innych social media takie konto jest dość bezimienne, z generyczną nazwą, często nawiązującą do patriotyzmu, wartości rodzinnych, zdrowia czy religijności. Osoba, która jest podatna na takie treści często obserwuje kilka takich profili, przez co “przejęcie” jednego i zmiana na np. profil sprzedający produkty jest mało zauważalne. Podobnie z stronami internetowymi, przy czym tutaj wystarczy dodać na stronie reklamy, a przychodzący ruch sam wygeneruje zyski. Oto przykład działania:
Utworzenie konta -> Tworzenie treści nacechowanych emocjonalnie, clickbaitu -> Zbieranie reakcji -> Poszerzenie ruchu poprzez sugerowanie treści (“promowanie” przez algorytm) -> Promocja profilu za pomocą Ads, rozwój konta -> Sprzedaż danych/konta innemu podmiotowi
Ten cykl może być prowadzony na kilku profilach jednocześnie, zalewając jeszcze większą część Internetu “pomyjami”, ad nauseam. Warto dodać, że sprzedane konta nieraz celują w tę samą grupę docelową, na przykład promując suplementy diety lub ubezpieczenia.

Troszczmy się o starszych użytkowników Internetu
Jeśli zastanawiałeś_aś się, jak ktoś może dać się “złapać” na chałkonie i inne formaty AI slop, najpewniej nie jesteś w grupie docelowej. Obecnie z Facebooka korzysta ogrom ludzi – wraz z rozwojem Internetu i technologii (zwłaszcza komórkowej, tj. rozpowszechnienia się smartfonów) demografika użytkowników tej platformy znacznie się poszerzyła. Z Facebooka korzystają nasi rodzice, wujkowie, babcie, a zakładają Facebooka by móc być lepiej połączonym z rodziną, pograć w gry, pouczestniczyć w grupach (z wielkim żalem, bowiem fora internetowe przemijają na rzecz Facebookowych grup), oraz oczywiście poprzeglądać jakieś śmieszne filmiki czy memy. Co za tym idzie, starsi użytkownicy mają mniejszą wiedzę i biegłość technologiczną, i to właśnie czyni ich grupą docelową. Boomertrapy (także boomer bait) to treści tworzone z myślą właśnie o nich, mające na celu wywołanie silnych emocji czy nostalgii. Oprócz postowania grafik takich jak chałkonie dla kultywowania lajków, często przybierają formę fałszywych konkursów, sensacyjnych wiadomości czy teorii spiskowych, które łatwo rozprzestrzeniają się w mediach społecznościowych. Mechanizm ten wykorzystuje niewiedzę i nieświadomość, co czyni ich podatnymi na manipulacje i dezinformację.
Popatrzmy na to z tej strony: jakie jest prawdopodobieństwo, że taki starszy użytkownik wie, co niesie za sobą polajkowanie czy kliknięcie czegoś, i jak wpływa na algorytm Facebooka lub Google Ads?
Niestety – takie prawdopodobieństwo jest nikłe. Starsi użytkownicy nie wiedzą o mechanizmach, i najpewniej zupełnie się tym nie interesują. Trudniej im też potwierdzić wiarygodność i rzetelność treści, zwłaszcza gdy otoczą się kręgiem profili i stron o wątpliwych zawartościach serwowanych im przez algorytmy. Buduje to ogromne ryzyko.
Chałkoń trojański – trzy wektory ataku cyberprzestępców
Przedstawiamy trzy scenariusze ataków, uwzględniające cyberprzestępców, profil Facebook który zbiera interakcje osób starszych, oraz użytkowników.
Phishing poprzez udostępnienie posta z linkiem
Profil Facebook zbiera obserwujących w określonej grupie docelowej za pomocą stałego udostępniania treści. Jeden z postów wykorzystując te same ramy nacechowanych emocjonalnie treści (niedawno po Facebooku krążył post o nagraniu z monitoringu, podczas którego porywane jest dziecko) udostępnia link zewnętrzny. Link ten prowadzi do odpowiednio spreparowanej strony, gdzie podszywając się pod stronę logowania do Facebooka można wyłudzić login, bądź przekierować ofiarę do swoistego “lejka” cyberprzestępczego, prowadząc do wyłudzenia pieniędzy (choćby przez podanie danych karty kredytowej).

Deepfake i impersonalizacja
Podobnie do poprzedniego scenariusza, fanpage może emitować (za pomocą posta lub reklamy) klip, w którym znana osoba promuje jakieś usługi – często są to inwestycje. Wysoki autorytet osoby i – ponownie – nacechowany emocjonalnie, personalny język korzyści (Właśnie teraz Twoje życie się zmieni, daję Ci jedyną w swoim rodzaju szansę) może nakłonić ofiarę – zwłaszcza, gdy nie potrafi rozróżnić impersonalizacji. Ofiarą padł między innymi Rafał Brzoska, Cezary Pazura, Hubert Urbański, oraz poszkodowani finansowo użytkownicy, którzy dali się złapać na atak.
Poniżej przedstawiamy przykład takiej reklamy, z jednym szczegółem – głos AI popełnia wpadkę, zmieniając akcent w połowie klipu. Pada także humorystyczne “nie trzeba mnie przedstawiać”, które widoczne było w wielu kampaniach tego typu.
Profiling i bezpośredni kontakt
Właściciel fanpage ma możliwość dogłębnej analizy jej odbiorców. Dalszy profiling pozwala wyłonić listę użytkowników wykazujących wysokie zaangażowanie i podatnych ma manipulacje – innymi słowy, potencjalne ofiary. Stąd ofiara może zostać skontaktowana przez kogoś, kto stoi za profilem (celem wiarygodności) lub przekazana innemu przestępcy.
Warto uwzględnić jeszcze zbieranie danych i wspomnianą wcześniej sprzedaż konta podmiotowi, który może później wykorzystać to konto do promowania wątpliwych usług czy produktów. Każda interakcja może być wykorzystana przez autorów do gromadzenia danych o zaangażowanych osobach, a informacje o preferencjach czy zachowaniach użytkowników są niezwykle cenne w marketingu. A wszystko to może zostać wywołane z polajkowania niewinnych postów!
Jak nie dać się zrobić w (chał)konia?
Absolutnie najważniejsza jest edukacja i uświadomienie o potencjalnym zagrożeniu, które może wynikać z tych niewinnych powierzchownie mediów. Działania możemy zacząć sami, od informowania znajomych i członków rodziny i szerzyć informacje. Istnieją także wtyczki, które pomagają wykryć, czy dana treść czy obraz została sztucznie wygenerowana.
Ostatecznie zaś obrona powinna być proaktywna. Źle jest zakładać, że wszystkie profile na Facebooku, które dzielą się takimi treściami są złowrogie w naturze, jednak poniekąd można je klasyfikować jako dezinformację. Użytkownicy mają możliwość zgłosić profil i poprosić o przegląd, jeśli uważają, że może naruszać warunki korzystania bądź regulamin Facebooka; podobnie rzecz ma miejsce w przypadku innych platform społecznościowych. Podejrzane strony, jak i wszelkie incydenty możemy zgłosić do rodzimego CERT Polska.
W dalszej perspektywie wymagane są przepisy prawne, które wymuszą oznaczanie treści AI, rozwój technologii wykrywania AI oraz budowanie społecznej odpowiedzialności platform za treści, które udostępniają. Pomoże to nie tylko zmniejszyć ryzyko, ale i chronić własność intelektualną twórców, których dzieła są wykorzystywane do generowania treści bez ich zgody.
Warto pamiętać, że przyszłość Internetu zależy od nas wszystkich. W obliczu rosnącej obecności treści generowanych przez AI, a tym bardziej ich rozpowszechnieniu wśród szerszego spektrum użytkowników Internetu, bądźmy wyczuleni i bardziej krytyczni wobec tego, co znajdujemy na Internecie. Zjawisko chałkonia rodzi pytania o autentyczność i wartość informacji dostępnych w sieci, oraz potencjalnego niebezpieczeństwa, jakie może kryć się pod czymś tak powierzchownie niewinnym.
Każdy z nas jest podatny na cyberatak – nawet ludzie mocno “umiejący w internety” czy świadomi w tematyce cyberbezpieczeństwa, czego przykładem jest kampania cyberprzestępcza WebWyrm celująca właśnie między innymi w profesjonalistów IT i digital marketingu (raport w języku angielskim). Mówi się, że można włamać się do każdego zamka, jeśli poświęci się na to wystarczająco dużo czasu. Bądźmy zatem proaktywni i uważajmy na zagrożenia, które coraz częściej czyhają w sieci.