Google ogłosiło właśnie serię aktualizacji Gemini na Androida, a jedna z nich może zmienić sposób, w jaki korzystamy ze smartfonów na co dzień. Chodzi o automatyzację wieloetapowych zadań – asystent AI ma teraz samodzielnie zamawiać jedzenie, wzywać taksówkę czy robić zakupy spożywcze.
Funkcja jest na razie w fazie beta i działa tylko w wybranych kategoriach aplikacji: dostawa jedzenia, zakupy spożywcze i przejazdy. Brzmi skromnie, ale kierunek jest oczywisty.
Co konkretnie potrafi nowy Gemini?
Zamiast otwierać aplikację Uber Eats, wyszukiwać restaurację, wybierać dania i przechodzić przez kolejne ekrany, masz po prostu powiedzieć Gemini co chcesz – i asystent ma to zrobić za ciebie. Google opisuje to jako możliwość „oddania listy zadań” AI.
Ograniczenia na starcie są jednak spore:
- Działa tylko na Pixel 10, Pixel 10 Pro oraz Samsung Galaxy S26
- Dostępne wyłącznie w USA i Korei
- Obsługuje tylko wybrane aplikacje z trzech kategorii
- Wymaga wyraźnego polecenia od właściciela urządzenia
Zadania działają w izolowanym, wirtualnym oknie – Gemini ma dostęp tylko do konkretnej aplikacji, nie do reszty danych na telefonie. Możesz też śledzić postęp w czasie rzeczywistym i w każdej chwili przerwać działanie.
Rynek agentów AI coraz gęstszy
Google nie jest tu pierwszym graczem. ChatGPT od jakiegoś czasu oferuje zadania uruchamiane według harmonogramu oraz agenta zdolnego do nawigacji po kalendarzu czy generowania prezentacji. Anthropic wypuściło Cowork, który przenosi możliwości Claude’a na zadania niekodujące dla zwykłych użytkowników. Viralowy OpenClaw zrobił furorę w sieci, obsługując e-maile, odprawy na lotniskach i zarządzanie kalendarzem.
Wszyscy zmierzają w tym samym kierunku: AI nie tylko odpowiada na pytania, ale zaczyna działać.
Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl:
Automatyzacja codziennych zadań przez AI to krok, który jednocześnie mnie fascynuje i niepokoi. Z jednej strony – kto z nas nie chciałby odzyskać tych kilku minut dziennie spędzanych na klikaniu przez kolejne ekrany zamówień? Potencjał jest realny. Z drugiej strony – warto zadać sobie pytanie, co tak naprawdę oddajemy. Asystent działający „w naszym imieniu” to nowy poziom dostępu do naszych nawyków, preferencji zakupowych i wzorców zachowań. Google zapewnia o izolacji środowiska, ale historia pokazuje, że takie obietnice warto weryfikować w praktyce, nie tylko w komunikatach prasowych. Pytanie nie brzmi „czy to działa”, ale „komu to służy i na jakich warunkach?”
Gemini kontra Apple: różnica tempa
Warto zwrócić uwagę na kontekst konkurencyjny. Google regularnie wypuszcza kolejne aktualizacje Gemini w ekosystemie Androida, podczas gdy Apple wciąż zmaga się z przebudową Siri. Premiera ulepszonego asystenta Apple z możliwościami AI była już wielokrotnie przekładana i wciąż czeka na realizację. Google najwyraźniej postanowiło tę lukę bezlitośnie wykorzystać.
Co jeszcze dostaje Android?
Poza automatyzacją Google ogłosiło dwie inne aktualizacje. Funkcja wykrywania oszustw (Scam Detection) dla połączeń telefonicznych rozszerza się na Samsunga Galaxy S26 w USA – wcześniej była dostępna tylko na Pixelach. Model Gemini on-device ma też wykrywać podejrzane SMS-y na urządzeniach Pixel 10 i wkrótce Galaxy S26.
Circle to Search dostaje natomiast nową umiejętność: zamiast wyszukiwać pojedynczy obiekt na ekranie, teraz można „zaznaczyć” wszystko naraz. Pełna stylizacja z Instagrama? Każdy element ubrania i każdy dodatek – jednym gestem.
Małe kroczki, ale wyraźny sygnał: Google traktuje Androida jako główną platformę do wdrażania AI w codziennym życiu użytkowników. I na razie nikt nie nadąża w tym tempie.
