Gubernator Teksasu Greg Abbott, prokurator generalny Ken Paxton i kongresman Mike Lawler dali się nabrać na wygenerowane przez AI zdjęcie przedstawiające rzekomego amerykańskiego lotnika uratowanego z Iranu. Fałszywy obraz rozszedł się na platformie X ponad 21 000 razy, zanim ktokolwiek zdążył go oznakować ostrzeżeniem.
Jak do tego doszło
Kontekst jest ważny. 2 kwietnia zestrzelono nad Iranem amerykański myśliwiec F-15E. Obaj członkowie załogi katapultowali się – pilot został odnaleziony szybko, ale drugi lotnik, oficer systemów uzbrojenia w stopniu pułkownika, ukrywał się przez ponad dobę w górach, zanim CIA i siły specjalne przeprowadziły ryzykowną operację ratunkową. Trump ogłosił sukces na Truth Social krótko po północy w niedzielę słowami: „WE GOT HIM! My fellow Americans, over the past several hours, the United States Military pulled off one of the most daring Search and Rescue Operations in U.S. History” (WE GOT HIM! Rodacy, przez ostatnie kilka godzin Wojsko Stanów Zjednoczonych przeprowadziło jedną z najśmielszych operacji poszukiwawczo-ratowniczych w historii USA).
Właśnie w tej próżni informacyjnej, gdy Pentagon nie opublikował żadnych zdjęć ani danych identyfikacyjnych uratowanego, wkroczyło AI. Konto @MissyIsMaga na X wrzuciło obraz przedstawiający lotnika otoczonego uśmiechniętymi żołnierzami z amerykańską flagą rozłożoną na kolanach. Podpis brzmiał: „Here is the photo of the honorable Colonel being rescued yesterday” (Oto zdjęcie szlachetnego pułkownika ratowanego wczoraj).
Politycy lubią, zanim sprawdzą
Abbott, mający 1,4 miliona obserwujących na X, napisał pod zdjęciem „This is so awesome” i dodał nawiązanie do wielkanocnej symboliki: „God is sending a message to our enemies!”. Post usunął po czasie. Lawler udostępnił fotografię z podpisem „God Bless America!” i również skasował wpis. Paxton poszedł o krok dalej – sam opublikował obraz ze słowami: „Shot down on Good Friday… rescued on Easter morning. God is sending a message to our enemies!”.
Problem w tym, że zdjęcie miało już etykietkę „Made with AI”. Notatka społeczności na X informowała, że „no credible records exist for the image, which depicts telltale AI signs (hand anomalies, gear deformities, lighting errors, etc.)” (nie istnieją żadne wiarygodne źródła dla tego zdjęcia, które zawiera charakterystyczne oznaki generowania przez AI: nieprawidłowości dłoni, deformacje sprzętu, błędy oświetlenia).
To nie pierwszy raz u tych samych osób
Obserwuję tę sprawę z mieszanymi uczuciami. Z jednej strony – trudno nie mieć zrozumienia dla emocji towarzyszących wiadomości o udanej akcji ratunkowej. Dobra narracja, wielkanocna symbolika, patriotyczny impuls. AI właśnie na tym żeruje: produkuje obrazy idealnie dopasowane do emocji chwili, zanim rzeczywistość zdąży dostarczyć prawdziwych materiałów. Z drugiej strony – mówimy o gubernatorze stanu, prokuratorze generalnym i kongresmenowi. Ludziach, którzy kształtują politykę i prawo, a jednocześnie nie potrafią lub nie chcą poświęcić 30 sekund na weryfikację zdjęcia z konta o nazwie „Missy in So Cal”. To nie jest problem technologiczny. To problem nawyków i odpowiedzialności.
Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl
Co szczególnie niepokojące – Abbott ma w tej dziedzinie „bogatą historię”. Miesiąc wcześniej udostępnił klip, który jego zdaniem pokazywał zestrzelenie irańskiego samolotu przez amerykański okręt wojenny. Nagranie pochodziło z gry wojennej War Thunder, osadzonej w realiach II wojny światowej. W 2023 roku wpadł na satyryczny artykuł o tym, że Garth Brooks został wygwizdany ze sceny w Teksasie za wspieranie marki Bud Light.
AI slop jako nowe narzędzie w wojnach informacyjnych
To nie jest zjawisko wyłącznie po jednej stronie sceny politycznej. W grudniu ubiegłego roku demokratyczny strateg Keith Edwards wrzucił wygenerowane przez AI zdjęcie Trumpa poruszającego się o chodziku – obraz obejrzało około 13,5 miliona użytkowników. Gubernator Kalifornii Gavin Newsom regularnie sięga po AI-generated content w celach politycznych, w tym po grafikę przedstawiającą Trumpa i jego współpracowników prowadzonych przez agentów FBI w kajdankach.
Sofia Rubinson z NewsGuard tłumaczyła wcześniej, że fałszywe obrazy bywają szczególnie skuteczne, bo:
- nie dramatycznie zniekształcają faktów – zdarzenie jest prawdziwe, tylko zdjęcie nie
- wypełniają lukę informacyjną, gdy oficjalne materiały jeszcze nie dotarły do opinii publicznej
- trafiają w emocje i narracje już obecne w głowach odbiorców
Hany Farid, ekspert ds. cyfrowej kryminalistyki z Uniwersytetu Kalifornijskiego, ujął to precyzyjnie: „Details can get mistaken or altered in a way that is dangerous in these very volatile situations. In the fog of war and in conflict, it is just really messy, and we are simply adding noise to an already complicated and difficult situation” (Szczegóły mogą być mylone lub zmieniane w sposób niebezpieczny w tak zmiennych sytuacjach. We mgle wojny i konfliktu jest już naprawdę chaotycznie, a my po prostu dodajemy szum do i tak skomplikowanej i trudnej sytuacji).
Co z tą media literacy?
Billy Binion z libertariańskiego magazynu „Reason” skomentował sprawę wprost: „This kind of stuff is bleak. I get that we’re in a new era, but we desperately need a new crash course in media literacy, or just a reminder to be remotely discerning. The governor of Texas should not be sharing an obviously fake photo from a slop account” (To przygnębiające. Rozumiem, że jesteśmy w nowej erze, ale desperacko potrzebujemy kursu podstaw media literacy – albo chociaż przypomnienia, żeby zachować minimum krytycznego myślenia. Gubernator Teksasu nie powinien udostępniać oczywiście fałszywego zdjęcia z konta produkującego tanią propagandę).
Ron Filipkowski z MeidasTouch był jeszcze dosadniejszy: „Maybe when you are a member of Congress, you should try to make sure you aren’t posting AI slop from a BS right-wing influencer” (Może będąc członkiem Kongresu, warto sprawdzić, czy nie udostępniasz AI-slopu od lewackiego lub prawackiego influencera).
Rzecz jasna, Pentagon nie opublikował żadnych zdjęć ani danych identyfikacyjnych uratowanego pułkownika. Jedynym oficjalnym komunikatem było krótkie oświadczenie US Central Command potwierdzające udaną operację. W sytuacji, gdy prawdziwe zdjęcia po prostu nie istnieją – AI chętnie je zastępuje. I robi to coraz lepiej.
