Od reklamy radiowej z podrobiony głosem gubernatora, przez deepfake’owego kandydata na Senat, po miliony dolarów wpompowane w wybory przez super PAC-i finansowane przez branżę AI. Midtermy 2026 w USA stają się pierwszym wielkim testem tego, co generatywna sztuczna inteligencja potrafi zrobić z demokratycznym procesem wyborczym.
I nie jest to test, który wszyscy zdają celująco.
Piętnaście reklam i jeden przekroczony Rubikon
Od listopada ubiegłego roku w amerykańskich kampaniach wyborczych pojawiło się co najmniej 15 reklam zawierających treści wygenerowane przez AI. Obejmują one wszystko: od lokalnych wyborów do rad szkolnych po wyścigi o stanowisko gubernatora. To nie jest już eksperyment. To norma, która się tworzy na naszych oczach.
Szczególnie głośna stała się sprawa z Massachusetts. Kampania republikańskiego kandydata Briana Shortsleve’a stworzyła radiową reklamę wygenerowaną przez AI, która brzmi jak demokratyczna gubernator Maura Healey. Sztuczny głos Healey wypowiada rzeczy, których nigdy nie powiedziała, w tym komentarze na temat stanu gospodarki. Reklama nie zawiera wyraźnego zastrzeżenia o użyciu AI, zamiast tego pojawia się podpis sugerujący, że tak brzmiałyby jej reklamy radiowe, „gdyby była uczciwa”.
Komunikator kampanii Shortsleve’a bronił tego podejścia, twierdząc, że AI służy do „kreatywnego, humorystycznego i zabawnego” edukowania wyborców.
Deepfake kandydata na Senat. I to nie jest satyra
Narodowy Komitet Senacki Republikanów opublikował 85-sekundową reklamę z wygenerowaną przez AI wersją Jamesa Talarico, demokratycznego kandydata do Senatu z Teksasu. Deepfake przedstawia Talarico pozornie czytającego i komentującego własne stare posty w mediach społecznościowych, a wygenerowana postać wypowiada samochwalne słowa, których prawdziwy kandydat nigdy nie powiedział.
Reklama zawiera małą adnotację „AI GENERATED”. Jednak naukowcy ostrzegają, że jest ona praktycznie niewidoczna. Hany Farid, profesor Uniwersytetu Kalifornijskiego w Berkeley specjalizujący się w kryminalistyce cyfrowej, opisał deepfake jako hiperrealistyczny i stwierdził, że większość widzów zostanie wprowadzona w błąd. Dodał, że nawet on sam nie zauważył zastrzeżenia od razu.
To jest granica, którą właśnie przekroczono. Nie chodzi o karykaturę ani animację polityka jako Grincha. Chodzi o minutę i ćwierć realistycznego wideo z fałszywą osobą, która mówi coś, czego nigdy nie powiedziała.
Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl:
Rozumiem, że AI w kampaniach wyborczych to temat, który wywołuje skrajne emocje. I mam tu dwie myśli jednocześnie. Po pierwsze, od dekad kampanie opierały się na wyrwanych z kontekstu cytatach, fałszywych implikacjach i manipulacji emocjami. AI nie wynalazła kłamstwa politycznego. Po drugie jednak, skala i dostępność narzędzi do syntetyzowania cudzego głosu i wizerunku to coś jakościowo nowego. Kiedyś trzeba było zatrudnić aktora i mieć studio. Dziś wystarczy laptop i kilka minut. Pytanie, które naprawdę mnie niepokoi, brzmi: czy wyborcy w ogóle będą w stanie odróżnić, co jest prawdziwe, a co nie, skoro nawet specjaliści od cyfrowej kryminalistyki mają z tym problem?
Miliony dolarów AI-branży. Ale nie na reklamy o AI
Branża sztucznej inteligencji nie tylko dostarcza narzędzi do kampanii. Sama aktywnie finansuje wybory.
Super PAC-i powiązane z branżą AI pompują miliony dolarów w wybory midterm 2026, zaczynając od prawyborów w Teksasie i Karolinie Północnej. Jest jednak jeden szczegół: w ich reklamach nie ma ani słowa o sztucznej inteligencji.
Grupy te dążą do ukształtowania sposobu regulacji modeli i firm AI w całych Stanach Zjednoczonych. Zamiast jednak mówić o tym wprost, opierają się na innych, bardziej „chwytliwych” tematach, takich jak imigracja, opieka zdrowotna czy postawa wobec Trumpa.
To klasyczna strategia polityczna, nic nowego. Ale rozmach jest imponujący:
- Pro-AI group „Leading the Future” zakończyła rok z 39 milionami dolarów na koncie kampanii
- Powiązane z kryptowalutami grupy dysponują blisko 194 milionami dolarów, głównie za sprawą Fairshake, grupy wspieranej przez Coinbase
- Łączne wydatki na reklamy polityczne w wyborach midterm 2026 mają osiągnąć 10,8 miliarda dolarów, o 21% więcej niż w 2022 roku
Kandydat, który walczy z AI-money
Na tym tle wyróżnia się historia Alexa Boresa, nowojorskiego legislatora stanowego.
Bores, jeden z kilkunastu kandydatów ubiegających się o demokratyczną nominację w 12. okręgu kongresowym Nowego Jorku, zmaga się z atakami finansowanymi przez super PAC związany z branżą AI, jednocześnie zbierając datki od pracowników innych firm AI. Paradoks? Owszem. Ale też dowód, że branża nie jest monolitem.
Bores opublikował ośmiopunktowy plan dla ogólnokrajowych ram regulacyjnych AI, przyznając jednocześnie w wywiadzie, że biorąc pod uwagę tempo rozwoju technologii, większość planu może wymagać gruntownej przebudowy.
Przynajmniej ktoś jest szczery co do tego, jak szybko wszystko się zmienia.
Prawo nie nadąża. Technologia już tak
Teksas posiada jedno z najsurowszych praw stanowych dotyczących deepfake’ów politycznych w całym kraju. Ustawa z 2019 roku uznaje za przestępstwo dystrybucję zwodniczych deepfake’ów w ciągu 30 dni przed wyborami. Grozi za to do roku więzienia. Jednak reklama NRSC z Talarico została opublikowana na kilka miesięcy przed listopadowymi wyborami midterm.
Prawo napisane z myślą o innej epoce technologicznej. Kampanie dobrze o tym wiedzą i świetnie to wykorzystują.
Co dalej?
Mark Jablonowski, dyrektor generalny progresywnej firmy reklamowej DSPolitical, zachowuje ostrożny optymizm: „The good news is, I think most campaigns on both sides of the aisle probably want to do the right thing. There, of course, are going to be examples that you can point to where people are going about it the wrong way.”
Chciałoby się wierzyć. Problem w tym, że „the wrong way” staje się coraz tańsze, coraz łatwiejsze i coraz trudniejsze do wykrycia. Midtermy 2026 to dopiero rozgrzewka. Prawdziwy test dopiero przed nami.
