Filmy z klocków Lego przedstawiające Trumpa i Szatana, zmanipulowane nagrania wojenne zalane sztuczną inteligencją, a wszystko to w służbie propagandy. Tak wygląda rzeczywistość konfliktu informacyjnego w 2026 roku. Naukowcy mają na to nazwę: slopaganda.
Kiedy propaganda spotyka AI
Na początku marca, tydzień po pierwszych amerykańsko-izraelskich uderzeniach na Iran, Biały Dom opublikował wideo łączące prawdziwe ataki z klipami z filmów, seriali, gier i anime. Odpowiedź Iranu? Fala przestarzałych nagrań wojennych podawanych jako aktualne materiały z konfliktu – plus treści wygenerowane przez AI, pokazujące rzekome ataki na Tel Awiw i amerykańskie bazy w Zatoce Perskiej.
Najnowszy hit to wiralowe klipy przedstawiające Donalda Trumpa, Jeffreya Epsteina, Szatana, Benjamina Netanyahu i ajatollaha Chamenei jako figurki Lego. Twórcy? Podobno zespół Irańczyków.
Termin „slopaganda” ukuli pod koniec ubiegłego roku Mark Alfano z Macquarie University i Michał Klincewicz z Tilburg University w artykule opublikowanym w Filosofiska Notiser. To połączenie „slopu” – AI-owego śmiecia – z propagandą.
Trump sam dorzuca do ognia
Co ciekawe, prezydent USA sam aktywnie uczestniczy w tym procederze. W październiku 2025 roku opublikował wygenerowane przez AI wideo, na którym pilotuje myśliwiec w koronie i zrzuca fekalia na amerykańskich protestujących.
Tak, dobrze czytacie.
Później dorzucił wizję swojej biblioteki prezydenckiej jako gigantycznego, kiczowatego wieżowca ze złotą windą. Granica między oficjalną komunikacją polityczną a internetowym trollingiem przestała istnieć.
Jak slopaganda omija nasze zabezpieczenia
Mechanizm działania jest prosty i brutalny:
- Powtarzana ekspozycja w mediach społecznościowych przebija się przez naturalne filtry uwagi
- Treści są chwytliwe emocjonalnie – zazwyczaj negatywnie
- Trafiają do rozproszonej publiczności scrollującej Instagrama między spotkaniami
Nikt nie wierzy, że Trump naprawdę pilotuje F-16 i zrzuca z niego odchody. Nikt (mamy nadzieję) nie myśli, że plastikowe figurki Lego faktycznie konspirują z Szatanem. Ale o to nie chodzi.
Slopaganda jest ekspresyjna i emblematyczna. Tworzy skojarzenia: Szatan = Trump. Ameryka = zło. Powtórzone tysiąc razy, zaczyna działać na podświadomość.
Obserwujemy narodziny zupełnie nowego typu wojny informacyjnej – takiej, w której prawda przestaje być stawką. Nikt nie próbuje nikogo przekonać do konkretnych faktów. Chodzi o budowanie emocjonalnych skojarzeń, o zalewanie przestrzeni informacyjnej szumem. Czy to działa? Niestety tak. Czy możemy się przed tym bronić? To pytanie, na które musimy odpowiedzieć jako społeczeństwo, zanim będzie za późno. Z jednej strony mamy wolność słowa i ekspresji – nawet tej absurdalnej. Z drugiej strony widzimy, jak te narzędzia rozmywają granicę między satyrą a manipulacją. Gdzie postawić granicę?
Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl
Nihilizm epistemiczny jako cel
Filozofowie argumentują, że narzędzia typu ChatGPT mogą być maszynami do produkcji bullshitu – treści obojętnych na prawdę. Slopaganda idzie dalej.
Problem pojawia się, gdy żart lub trolling wymyka się ze swojego kontekstu i jest odbierany poważnie. Badacze nazywają to „context collapse”. W czasie konfliktów i kryzysów, gdy ludzie desperacko szukają informacji, a wiarygodne źródła są rzadkie, wprowadzające w błąd treści rozprzestrzeniają się błyskawicznie.
Skutek długoterminowy? Ludzie zaczynają wątpić we wszystko. Stają się lepsi w wykrywaniu slopu, ale jednocześnie częściej błędnie identyfikują autentyczne treści jako fałszywe. Zaufanie do naprawdę wiarygodnych instytucji spada.
„When it’s hard or impossible to identify trustworthy sources, you can choose to believe whatever you find comforting, invigorating or infuriating / Kiedy trudno lub niemożliwe jest zidentyfikowanie wiarygodnych źródeł, możesz wybrać wiarę w to, co daje ci pocieszenie, energię lub wściekłość” – piszą autorzy.
Co można zrobić?
Alfano i Klincewicz proponują interwencje na trzech poziomach.
Na poziomie indywidualnym: edukacja cyfrowa, sprawdzanie źródeł, blokowanie kont rozpowszechniających slopagandę zamiast oceniania każdej treści osobno.
Na poziomie regulacyjnym: technologiczne znakowanie treści wygenerowanych przez AI, usuwanie najbardziej szkodliwych materiałów z platform informacyjnych.
Na poziomie korporacyjnym: rozliczanie firm takich jak OpenAI, Google czy X za to, co umożliwiły. Opodatkowanie ich działalności i przeznaczanie środków na regulacje oraz edukację.
Slopaganda zostanie z nami
Nie oszukujmy się – te treści nigdzie nie znikną. Generatywna AI stała się zbyt dostępna, zbyt tania i zbyt skuteczna. Pytanie brzmi: czy zdążymy się zaadaptować, zanim polaryzacja społeczna w połączeniu z kryzysami ekonomicznymi, politycznymi i środowiskowymi nie rozerwie tego, co zostało ze wspólnej przestrzeni informacyjnej?
Odpowiedź na to pytanie napiszemy sami. Albo pozwolimy, żeby napisały ją za nas algorytmy.
