Reklama Amazon Ring wyemitowana podczas Super Bowl miała być wzruszająca – dzieci szukają zaginionego psa, a sieć kamer z AI przychodzi z pomocą. Zamiast uśmiechu, widzowie poczuli niepokój. Czy technologia do znajdowania zwierząt to tylko pretekst do budowy ogólnokrajowej sieci inwigilacji napędzanej sztuczną inteligencją?
30-sekundowy spot reklamowy Ring, należącego do Amazona, wyróżniał się wśród dziesiątek innych reklam emitowanych podczas niedzielnego Super Bowl. Jamie Siminoff, założyciel Ring, pojawił się na ekranie z prostym przekazem: „Zwierzęta to rodzina, ale każdego roku 10 milionów z nich ginie. A sposób, w jaki ich szukamy, nie zmienił się od lat – do teraz”.
Reklama pokazuje smutne dzieci, ogłoszenia o zaginionym psie przyklejone do latarni, a następnie – zbawienie w postaci funkcji „Search Party”. Wystarczy wrzucić zdjęcie zagubionego czworonoga do aplikacji Ring, a sztuczna inteligencja automatycznie przeszuka nagrania z wszystkich kamer Ring w okolicy, szukając potencjalnego dopasowania.
Jak działa Search Party?
Mechanizm wydaje się prosty. Właściciel zaginionego psa umieszcza zdjęcie zwierzaka w aplikacji Ring, podając jego imię i opis. System aktywuje wszystkie kamery zewnętrzne Ring w sąsiedztwie – te z włączoną funkcją Search Party – które automatycznie skanują swoje nagrania w poszukiwaniu psa pasującego do opisu.
Gdy AI wykryje potencjalne dopasowanie, wysyła powiadomienie do właściciela kamery (nie właściciela psa). To właściciel kamery decyduje, czy chce udostępnić nagranie osobie szukającej zwierzęcia. Według Ring „nic nie jest udostępniane automatycznie”, a wyszukiwanie wygasa po kilku godzinach, chyba że zostanie odnowione.
„Od uruchomienia, ponad jeden pies dziennie został połączony ze swoją rodziną” – chwali się Siminoff w reklamie. Brzmi pięknie, prawda?
Dlaczego ludzie są przerażeni?
Problem w tym, że widzowie Super Bowl nie poczuli się zainspirowani – poczuli się nieswojo. W ciągu kilku dni od emisji reklamy, media społecznościowe eksplodowały komentarzami nazywającymi spot „przerażającym”, „dystopijnym” i „creepy”.
„Jeśli funkcja Search Party wbudowana w aplikację dzwonka do drzwi może być używana do znajdowania zagubionego psa, niewiele powstrzymuje ją przed śledzeniem ludzi” – ostrzega Hayes Brown z MSNow.
Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl: Obserwując tę burzę w sieci, trudno oprzeć się wrażeniu, że Ring i Amazon celowo wykorzystują najbardziej uniwersalny trigger emocjonalny – zagubione zwierzęta – aby znormalizować coś znacznie bardziej niepokojącego. To klasyczna strategia: pokażcie ludziom coś słodkiego, a nie będą zadawać trudnych pytań o infrastrukturę inwigilacji, którą właśnie budujecie. Chris Gilliard, ekspert od prywatności i autor nadchodzącej książki „Luxury Surveillance”, trafnie ujął to mówiąc, że Amazon nakłada „słodką maskę na dość dystopijną rzeczywistość: rozproszoną sieć nadzoru prowadzoną przez firmę, która ma bliskie relacje z organami ścigania”. I to właśnie jest kluczowe – nie chodzi o to, czy dziś ktoś wykorzysta tę technologię do masowego śledzenia ludzi. Chodzi o to, że infrastruktura do tego już powstaje, a my jako społeczeństwo zostajemy stopniowo oswajani z ideą kamery w każdym zakątku naszej okolicy.
Kontrowersyjna historia Ring
Obawy nie biorą się znikąd. Ring ma długą historię kontrowersyjnych relacji z organami ścigania:
2018-2022: Po przejęciu przez Amazon, Ring uruchomił aplikację Neighbors, która oferuje „alerty o przestępczości i bezpieczeństwie w czasie rzeczywistym” we współpracy z lokalnymi organami ścigania. W 2022 roku The Verge ujawnił, że departamenty policji mogły żądać i otrzymywać dostęp awaryjny do nagrań Ring bez zgody właścicieli, a nawet bez nakazu. Po fali krytyki Ring ogłosił zakończenie tej funkcji.
2025: Jesienią Ring podpisał umowy z dwoma firmami bezpieczeństwa: Flock Safety (producent kamer nadzoru i czytników tablic rejestracyjnych dla organów ścigania) oraz Axon Enterprises (producent taserów i kamer nasobnych). Następnie ponownie uruchomił partnerstwa z organami ścigania przez funkcję „Community Requests”, która ponownie pozwala lokalnej policji prosić o dostęp do nagrań użytkowników – tym razem przez Flock lub Axon.
Problem w tym, że jak donosi 404 Media, lokalne departamenty policji już przeszukiwały sieć kamer Flock w imieniu amerykańskiej Służby Imigracyjnej i Celnej (ICE) oraz Służby Celnej i Ochrony Granic (CBP), co daje organom federalnym „dostęp tylnymi drzwiami” do systemu, z którym oficjalnie nie mają kontraktu.
Rozpoznawanie twarzy już jest
Przez lata Ring zapewniał, że nie stosuje rozpoznawania twarzy. Tymczasem niedawno Amazon uruchomił funkcję beta o nazwie „Familiar Faces”, która pozwala „łatwo oznaczyć rodzinę i przyjaciół w aplikacji Ring, aby kamery 2K i 4K mogły powiadomić, gdy ktoś [kogo znasz] zostanie zauważony” przy twoich drzwiach.
To pokazuje, że technologia rozpoznawania twarzy AI już jest w rękach Ring. A jeśli może rozpoznawać twarze twoich znajomych, może rozpoznawać twarze wszystkich.
Senator Ed Markey z Massachusetts nie pozostawił złudzeń: „To zdecydowanie nie chodzi o psy – chodzi o masową inwigilację” – napisał na platformie X.
Opt-out, nie opt-in
Kolejnym źródłem kontrowersji jest fakt, że Search Party jest domyślnie włączone na wszystkich kamerach zewnętrznych objętych planem subskrypcyjnym Ring. Użytkownicy muszą aktywnie wyłączyć tę funkcję, jeśli nie chcą uczestniczyć w systemie. Niewielu to robi.
To klasyczny przykład architektury wyboru (choice architecture), która faworyzuje interesy firmy, a nie prywatność użytkowników. W TikToku i na Reddit pojawiły się instrukcje, jak wyłączyć Search Party – co samo w sobie jest symptomatyczne.
Odpowiedź Ring
Rzecznik Ring tłumaczy The Verge, że Search Party „nie jest w stanie przetwarzać biometrii ludzkiej”; że Familiar Faces jest oddzielne od Search Party, bez żadnego wspólnego udostępniania; że Community Requests jest „zbudowane tylko dla lokalnych agencji bezpieczeństwa publicznego”; że wszystkie prośby o nagrania są widoczne w aplikacji Neighbors; i że Ring nie ma żadnych partnerstw z ICE ani innymi agencjami federalnymi.
„To nie są narzędzia do masowej inwigilacji – budujemy odpowiednie zabezpieczenia i jesteśmy super transparentni” – zapewnia rzecznik.
Ale dla krytyków te zapewnienia brzmią jak pustosłowie. Historia uczy, że narzędzia stworzone do jednego celu rzadko pozostają ograniczone do pierwotnego zastosowania.
Wizja „zerowej przestępczości”
Jamie Siminoff powrócił do Ring (i Amazona) w kwietniu 2025 roku po dwuletniej przerwie, aby nadzorować biznes związany z bezpieczeństwem domowym. Powiedział, że wrócił „z powodu AI”.
Według The Verge, Siminoff wierzy, że dzięki tej technologii kamery sąsiedzkie mogłyby być wykorzystane do wirtualnego „wyzerowania przestępczości” w ciągu roku. „Eliminacja przestępczości to godny podziwu cel, ale historia pokazała, że narzędzia zdolne do masowej inwigilacji rzadko są ograniczone do swojego pierwotnego celu” – komentuje portal.
Czy to dopiero początek?
Kontrowersja wokół reklamy Ring to fragment znacznie większego obrazu – walki o przyszłość prywatności w erze sztucznej inteligencji. W momencie, gdy federalne organy ścigania używają podobnych narzędzi do identyfikowania osób do deportacji i skanowania twarzy protestujących, wprowadzenie funkcji AI wykorzystującej sieć prywatnych kamer do „znajdowania psów” nabiera zupełnie innego znaczenia.
Niezależnie od intencji Ring, infrastruktura jest już gotowa. A jak pokazuje historia technologii nadzoru – od kamer przemysłowych po rozpoznawanie twarzy – to, co dziś służy jednemu celowi, jutro może służyć zupełnie innemu.
Może Ring naprawdę chce tylko pomagać w znajdowaniu zaginionych psów. Ale w świecie, w którym AI może skanować miliony obrazów w sekundę, a kamery pokrywają każdy zakątek naszych miast, pytanie brzmi: komu tak naprawdę ufamy i co robimy, gdy ta ufność zostanie nadużyta?
