Wyobraź sobie, że zakładasz okulary, patrzysz na grupę znajomych, mówisz kilka słów do mikrofonu i sekundę później masz zdjęcie, na którym wszyscy stoją przed Sagrada Família w Barcelonie. Nikt z nich nigdy tam nie był. To nie science fiction. To właśnie pokazał Google podczas niedawnego pokazu prototypu okularów opartych na systemie Android XR.
Dieter Bohn, szef produktu w Google, zaprezentował działający prototyp. Poprosił okulary o zrobienie zdjęcia grupie osób w pomieszczeniu. Chwilę później wydał kolejne polecenie głosowe: umieść ich przed słynnym kościołem w Barcelonie, którego nazwy nie pamiętam. System sam rozpoznał, że chodzi o Sagradę Famílię, i wygenerował fotorealistyczny obraz. Gotowy. Natychmiastowy. Przekonujący.
Jak działają te okulary?
Prototyp korzysta z narzędzi generatywnej AI Google, w tym modelu Gemini oraz eksperymentalnego generatora obrazów o nazwie Nano Banana. To kombinacja, którą trudno zignorować. Okulary wyposażone są w kamerę, mikrofon, głośniki i asystenta głosowego, a całość spinają algorytmy rozpoznawania obrazu działające w czasie rzeczywistym.
Podobną architekturę mają zresztą Ray-Ban Meta Smart Glasses, które już są dostępne w sprzedaży. Te urządzenia również robią zdjęcia, nagrywają wideo i odpowiadają na pytania za pomocą głosu. Różnica polega jednak na celu. Meta stawia głównie na efekty artystyczne, czyli zamianę zdjęcia w rysunek czy obraz olejny. Google idzie krok dalej i proponuje coś znacznie poważniejszego: podmianę rzeczywistości w kadrze.
Typowa architektura smart okularów z AI obejmuje dziś:
- wbudowaną kamerę rejestrującą obraz w czasie rzeczywistym
- mikrofon i asystenta głosowego do wydawania poleceń
- głośniki do komunikacji audio
- moduł computer vision do rozpoznawania scen i obiektów
- wyświetlacz wewnątrz soczewek (opcjonalnie, jak w prototypie Google)
- łączność z chmurą i modelem generatywnej AI
Tu zaczyna się problem
Przez dekady zdjęcie było dowodem. Dowodem obecności, dowodem zdarzenia, dowodem faktów. Oczywiście Photoshop istnieje od lat i każdy wie, że obrazy można manipulować. Ale wymagało to czasu, umiejętności i przynajmniej odrobiny wysiłku. Teraz mówimy o czymś innym.
Mówimy o tym, że edycja dzieje się w momencie naciśnięcia spustu. Nie po. W chwili wykonania zdjęcia AI może już podmienić tło, przenieść ludzi w inne miejsce, zmienić kontekst całej sceny. Nie ma tu pośredniego kroku. Nie ma „oryginału”, do którego można wrócić.
Czytam o tej funkcji i mam mieszane uczucia, które chyba dobrze oddają szerszy dylemat stojący przed branżą AI. Z jednej strony rozumiem atrakcyjność tego narzędzia. Kto z nas nie chciałby mieć wspaniałego zdjęcia z miejsca, w którym nie był, albo usunąć przypadkowego przechodnia z rodzinnej fotografii? Twórcze możliwości są ogromne. Z drugiej strony coś tu pęka na poziomie fundamentalnym. Zdjęcie przestaje być dowodem. Staje się sugestią. A to ma konsekwencje, których dziś może jeszcze nie widzimy wyraźnie: dla dziennikarstwa, dla sądownictwa, dla relacji międzyludzkich, dla polityki. Kluczowe pytanie brzmi nie „czy ta technologia powstanie?”, bo już powstaje, ale „jakie mechanizmy weryfikacji będziemy musieli zbudować, żeby w ogóle wiedzieć, czemu możemy ufać?”.
Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl
Demo było starannie wyreżyserowane
Warto zatrzymać się przy jednym ważnym szczególe. Sam Google przyznał, że prezentowane nagranie było częściowo zmontowane. Oznacza to, że w rzeczywistości cały proces może zajmować więcej czasu niż sugeruje to gładki filmik demonstracyjny. Modele generatywne wciąż potrafią produkować błędy, zniekształcenia, nierealistyczne detale.
Ale to nie zmienia kierunku, w którym zmierzamy. Nawet niedoskonałe narzędzie tego typu zmienia dynamikę. Bo większość ludzi patrzy na zdjęcia, nie weryfikuje ich.
Co z tym zrobić?
Kilka nawyków może pomóc w bardziej świadomym podejściu do zdjęć, które widzimy w sieci:
Szukaj źródła. Zanim zaufasz dramatycznemu zdjęciu ze świata, sprawdź, skąd pochodzi. Reverse image search to podstawa.
Patrz na detale. AI wciąż źle radzi sobie z dłońmi, cieniami, odbiciami w wodzie i szkle. Jeśli coś wygląda „prawie idealnie”, sprawdź te elementy.
Bądź sceptyczny wobec zdjęć z podróży. To banalne, ale właśnie ten kontekst, fotografia z egzotycznych miejsc, staje się pierwszym poligonem dla tego rodzaju manipulacji.
Nie traktuj zdjęcia jako dowodu. Szczególnie w przypadku treści, które wywołują silne emocje lub pojawiają się przy prośbach o pieniądze.
Branża obserwuje, regulatorzy śpią
Google nie jest jedyny. Meta, Samsung, a według plotek również Apple pracują nad własną wizją smart okularów z AI. Wszyscy grają tę samą partię. Wyścig trwa, a publiczna dyskusja o standardach weryfikacji treści fotograficznych dopiero raczkuje.
Tymczasem okulary trafiają do kolejnych rąk. Kamera jest coraz mniejsza, niewidoczna, cicha. I coraz mądrzejsza. Pytanie o to, co jest prawdziwe na zdjęciu, przestaje być filozoficzne. Staje się bardzo praktyczne.
