Od 28 lutego, kiedy USA i Izrael rozpoczęły ataki na Iran, platforma X zamieniła się w coś na kształt generatora dezinformacji. Fałszywe filmy, zdjęcia wygenerowane przez AI i spreparowane nagrania z gier wideo – to wszystko zdobywa miliony wyświetleń, zanim ktokolwiek zdąży je zweryfikować.
Szczegółowe śledztwo magazynu WIRED ujawniło skalę problemu, który wielu obserwatorów mediów społecznościowych obserwuje z rosnącym niepokojem. Jeden z fałszywych filmów – rzekomo pokazujący irańskie rakiety uderzające w centrum Tel Awiwu – obejrzały ponad 4 miliony osób. Podpis pod nagraniem brzmiał teatralnie: „Tel Aviv, stripped of illusion, as you have never witnessed it.” Konto, z którego pochodzi, szybko zorientowało się w sytuacji i usunęło post, ale szkody były już zrobione.
Inny film, tym razem przedstawiający sfabrykowany ostrzał lotniska, zdjęcia rzekomych żołnierzy Delta Force wziętych do niewoli przez Irańczyków (ponad 5 milionów wyświetleń przed usunięciem) czy obraz zestrzelonego bombowca B-2 – to tylko część z setek treści, które krążyły po platformie w pierwszych dniach konfliktu. Część z nich wyglądała na tyle realistycznie, że dziennikarze i weryfikatorzy faktów musieli poświęcać mnóstwo czasu na ich obalanie.
Grok jako narzędzie dezinformacji, nie jej lek
Tu jednak historia staje się naprawdę niepokojąca. Kiedy ekspert ds. dezinformacji Tal Hagin poprosił chatbota Grok o zweryfikowanie jednego z krążących filmów, wynik był katastrofalny. Grok nie tylko błędnie określił lokalizację i datę nagrania, ale po chwili… wygenerował własny, sztuczny obraz zniszczeń, żeby „udowodnić” swój punkt widzenia.
„Now Grok is replying with AI slop of destruction,” napisał Hagin. „Cooked I tell you.”
To nie jednostkowy przypadek. Według raportów BBC Verify i CNN, Grok wielokrotnie informował użytkowników szukających weryfikacji, że treści AI są autentyczne. W jednym przypadku bot odpowiedział wprost: „No, this isn’t AI, it’s a real photo from today’s Iranian ballistic missile strikes on central Israel” – fałszywie powołując się przy tym na Reuters, CNN i Euronews jako źródła.
Skoordynowane operacje i zhakowane konta
Nikita Bier, szef produktu X, ujawnił kilka niepokojących szczegółów dotyczących zaplecza tej operacji dezinformacyjnej. Jeden użytkownik z Pakistanu zarządzał 31 przejętymi kontami, których nazwy zostały zmienione na warianty „Iran War Monitor” – wszystkie publikowały fałszywe nagrania wojenne. Bier oznajmił, że platforma staje się coraz sprawniejsza w wykrywaniu takich sieci, ale trudno nie zauważyć, że ta deklaracja brzmi jak tłumaczenie się po fakcie.
Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl: Obserwuję tę sytuację z mieszanymi uczuciami. Z jednej strony rozumiem, że żadna platforma nie jest w stanie błyskawicznie moderować setek tysięcy treści pojawiających się w czasie rzeczywistym podczas aktywnego konfliktu zbrojnego – to problem, który dotyczyłby każdego systemu. Z drugiej strony, case Grokiem mnie niepokoi szczególnie. Chatbot, który miał być narzędziem weryfikacji, sam generuje i dystrybuuje fałszywe obrazy – to nie jest błąd techniczny, to błąd fundamentalny w koncepcji. Pytanie, które powinniśmy zadawać głośno, brzmi: czy naprawdę chcemy, żeby AI był pierwszym filtrem rzeczywistości w czasie wojny?
Platforma próbuje reagować. Bier ogłosił nową politykę: konta, które publikują filmy wygenerowane przez AI dotyczące konfliktów zbrojnych bez odpowiedniego oznaczenia, tracą dostęp do programu podziału przychodów (Creator Revenue Sharing) na 90 dni. Kolejne naruszenie oznacza stałe wykluczenie z programu.
Brzmi poważnie. Tyle że ta polityka dotyczy wyłącznie użytkowników zarabiających na platformie – czyli mniejszości. Zwykli użytkownicy nadal mogą publikować co chcą. Co więcej, X nie ogłosił żadnych zmian dotyczących fałszywych zdjęć – jedynie filmów.
Skala problemu przerasta możliwości reagowania
Badacze z NewsGuard oszacowali, że materiały wizualne przedstawiające Iran jako stronę wygrywającą wojnę zebrały łącznie ponad 21,9 miliona wyświetleń. Część z nich to nagrania z gier wideo błędnie opisane jako materiały z frontu, część to archiwalne nagrania z innych krajów i wydarzeń – film z algierskich kibiców świętujących zwycięstwo lokalnego klubu piłkarskiego CR Belouizdad był szeroko udostępniany jako rzekomy dowód irańskiego ostrzału izraelskiego miasta.
Shayan Sardarizadeh z BBC Verify określił ten konflikt jako „pierwszy przykład poważnego globalnego konfliktu, w którym dezinformacja produkowana za pomocą AI przewyższa tę tworzoną tradycyjnymi metodami.”
Co sprawia, że teraz jest inaczej niż wcześniej? Kilka rzeczy naraz:
- Narzędzia do generowania obrazów i filmów są dziś dostępne dla każdego i niemal bezpłatne
- Jakość generowanych treści jest na tyle wysoka, że nawet dziennikarze mają problem z oceną autentyczności
- Systemy moderacji treści na X zostały znacząco okrojone po przejęciu platformy przez Elona Muska
- Model biznesowy nagradzający zasięg premiuje sensację niezależnie od jej prawdziwości
Watermarking nie działa tak, jak powinien
Kilka firm AI, w tym OpenAI i Google, wdrożyło standard metadanych C2PA, który pozwala śledzić pochodzenie treści. Problem w tym, że wystarczy pobrać plik i wgrać go ponownie do mediów społecznościowych, żeby te metadane zniknęły. Łańcuch proweniencji urywa się niemal natychmiast.
Rumman Chowdhury, badaczka AI i była szefowa działu etyki w X (jeszcze za czasów Twittera), podsumowała to zwięźle: „We have reached a level of realism in video, audio, and image deepfakes that for most people, it is not discernible from fact. While AI companies have agreed to watermarking and other methods of verification, they are not built with the consideration of how users interact with social media.”
Unijny AI Act zawiera przepisy dotyczące transparentności syntetycznych treści, ale ich egzekwowanie pozostaje kwestią otwartą. W USA kilka projektów ustaw pojawiło się w Kongresie, żaden nie stał się prawem.
Tymczasem fałszywa wojna trwa – jeden wygenerowany obraz na raz.
