Blond, atrakcyjna, religijna, pro-life, anty-imigracyjna. „Emily Hart” miała twarz i głos konserwatywnej Ameryki. Każdy jej reel zdobywał miliony wyświetleń. Problem w tym, że Emily nigdy nie istniała, a za całą operacją stał 22-letni student medycyny z północnych Indii.
Kim była Emily Hart?
Konto @emily_hart.nurse pojawiło się na Instagramie na początku 2026 roku. Prezentowało młodą pielęgniarkę o wyglądzie inspirowanym Jennifer Lawrence i Sydney Sweeney, zadeklarowaną chrześcijankę, która lubi wędkowanie, piwo i Biblię. Codziennie publikowała treści pro-chrześcijańskie, pro-Second Amendment, pro-life, anty-aborcyjne i anty-imigracyjne. Algorytm pokochał jej posty natychmiast.
Jak sam twórca opowiedział magazynowi WIRED: „Every Reel I posted was getting 3 million views, 5 million views, 10 million views. The algorithm loved it.” / „Każdy reel, który wrzucałem, osiągał 3 miliony wyświetleń, 5 milionów, 10 milionów. Algorytm to kochał.”
W ciągu miesiąca konto zgromadziło 10 tysięcy obserwujących. Szybko pojawiła się monetyzacja: koszulki z motywem MAGA, subskrypcje na platformie Fanvue (odpowiedź na OnlyFans, dopuszczająca treści generowane przez AI), a nawet jawnie erotyczne zdjęcia tworzone przy użyciu Grok AI.
Konserwatywna nisza jako „cheat code”
Za projektem stał mężczyzna identyfikowany tylko jako „Sam”, aspirujący chirurg ortopedyczny z północnych Indii. Motywacja była prosta: problemy finansowe podczas studiów medycznych i marzenie o emigracji do Stanów Zjednoczonych.
Sam próbował różnych rzeczy wcześniej: kanał na YouTube, sprzedaż notatek ze studiów, generowanie zdjęć półnagich kobiet przy użyciu Gemini Nano Banana. Nic nie chwyciło. Wtedy zapytał samego Gemini, jak wyróżnić się w tłumie.
Odpowiedź była konkretna: generyczna „gorąca dziewczyna” nie wystarczy. AI zaproponowało kilka nisz i zasugerowało, że środowisko MAGA/konserwatywne to „cheat code”, bo „the conservative audience (especially older men in the US) often has higher disposable income and is more loyal” / „konserwatywna publiczność (szczególnie starsi mężczyźni w USA) często dysponuje wyższymi dochodami i jest bardziej lojalna.”
Rzecznik Google Gemini zdystansował się od tej narracji, mówiąc, że narzędzie „odpowiedziało na zapytanie o dotarcie do konkretnej grupy politycznej” i nie przekazuje własnych przekonań. Brzmi jak bardzo czyste sumienie w bardzo brudnej historii.
Komentarz redaktora
Ta historia jest warta przeczytania dwa razy. Za pierwszym razem jako zabawna anegdota o tym, jak 22-latek z Indii zarobił pieniądze na konserwatywnych Amerykanach. Za drugim razem jako sygnał ostrzegawczy, który powinniśmy potraktować poważnie.
Z jednej strony trudno oprzeć się ironii: AI zasugerowało targetowanie „MAGA crowd”, bo bardziej lojalni i zasobni. To dowód na to, że modele językowe naprawdę optymalizują pod kątem tego, o co je poprosisz. Bez żadnych zahamowań.
Z drugiej strony, mamy tu do czynienia z czymś istotniejszym niż pojedynczy scam. Skala zasięgu Emily Hart, miliony wyświetleń, dziesiątki tysięcy zaangażowanych użytkowników, pokazuje, jak łatwo zbudować wiarygodną tożsamość polityczną od zera. Pytanie, które mnie niepokoi, nie brzmi „jak Sam to zrobił”, tylko „ile Emilii Hart tam jeszcze jest i kto za nimi stoi?” Pojedynczy student medycyny działał dla zarobku. Co robi dobrze finansowana operacja dezinformacyjna z tymi samymi narzędziami?
Platformy powinny się tu wyraźnie tłumaczyć. Instagram usunął konto dopiero w lutym, po tym jak stało się viralowe. Facebook pozwolił powiązanemu kontu działać jeszcze dłużej. To nie jest acceptable.
— Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl
„Super dumb people”
Sam nie krył pogardy wobec swoich odbiorców. W rozmowie z WIRED stwierdził wprost: „The MAGA crowd is made up of dumb people, like, super dumb people. And they fall for it.” / „Elektorat MAGA to głupcy, naprawdę głupi ludzie. I dają się nabierać.”
Próbował też uruchomić liberalną wersję Emily Hart. Nie wyszło. Jego komentarz: „Democrats know that it’s AI slop, so they don’t engage as much.” / „Demokraci wiedzą, że to AI slop, więc mniej angażują się w takie treści.”
To zdanie jest równie obraźliwe dla jednych, co drugie dla innych. Sam nie okazał sympatii żadnej ze stron.
Jak to działało technicznie
Projekt był prosty w obsłudze i tani w prowadzeniu:
- Wizerunek: generowany przez Google Gemini, inspirowany Jennifer Lawrence i Sydney Sweeney
- Treści erotyczne: produkowane za pomocą Grok AI, wgrywane na Fanvue
- Strategia contentowa: codzienna publikacja postów politycznych, dopasowanych do bieżących tematów dyskursu MAGA
- Monetyzacja: subskrypcje na Fanvue, sprzedaż merchandise z motywami MAGA
- Nakład pracy: 30-50 minut dziennie
„I was basically doing nothing… and it was just flooded with money.” / „W zasadzie nic nie robiłem, a pieniądze po prostu napływały.”
Konto na Instagramie zostało zablokowane w lutym pod zarzutem działalności fraudowej. Powiązane konto na Facebooku działało dłużej.
AI i polityczna dezinformacja
Historia Emily Hart nie jest odosobniona. Według raportu WIRED, podobny profil „jessicaa.foster” przedstawiający fikcyjną żołnierkę zebrał milion obserwujących na Instagramie, publikując zdjęcia z Donaldem Trumpem i innymi światowymi przywódcami.
Walerie Wirtschafter z Brookings Institution, badaczka zajmująca się technologiami emergentycznymi, śledzi tego typu przypadki. Skala zjawiska i jego niski próg wejścia każą zadawać pytania, na które ani platformy, ani regulatorzy nie mają jeszcze dobrych odpowiedzi.
Sam z kolei wrócił do studiów. Zadowolony z wyników, mówi, że skupia się teraz na egzaminach. Być może kiedyś zostanie chirurgiem. Być może stworzy po drodze kolejną Emily Hart. Kto wie.
