Google I/O: praktyczne podejście do projektu Astra

Jak zwykle, We/Wy Google 2024 to absolutny wir nowości i ogłoszeń. W tym roku, zamiast skupiać się na sprzęcie, Androidzie czy przeglądarce Chrome, Google spędził większość tegorocznej konferencji programistów, przekonując nas, że to Funkcje sztucznej inteligencji warto nadać im priorytet. Jednym z takich projektów jest Project Astra, multimodalny asystent AI, z którym można półrozmawiać i który jednocześnie może używać kamery do identyfikacji obiektów i osób.

Mówię „pół”, bo po demie widać, że ta część Gemini jest w powijakach. Spędziłem kilka krótkich minut z Projektem Astra na Pixela 8 Pro aby zobaczyć, jak to działa w czasie rzeczywistym. Nie miałem wystarczająco dużo czasu, aby przetestować go w pełnym zakresie lub spróbować oszukać, ale wyczułem, jak może wyglądać przyszłość jako użytkownik Androida.

Zapytaj o prawie wszystko

Ideą Project Astra jest bycie jak asystent, który prowadzi Cię także w realnym świecie. Może odpowiadać na pytania dotyczące otaczającego Cię środowiska, identyfikując przedmioty, twarze, nastroje i tekstylia. Może nawet pomóc Ci zapamiętać, gdzie ostatnio coś umieściłeś.

Zapowiedź trybu Pictionary w Project Astra, kolejnej oferty w pokoju demonstracyjnym.
Zdjęcie: Florence Ion / Gizmodo

Do wyboru były cztery różne demonstracje w ramach Projektu Astra. Obejmowały one tryb Narratora, w którym Bliźnięta muszą wymyślić historię na podstawie różnych danych wejściowych, oraz Pictionary, zasadniczo grę polegającą na zgadywaniu bazgrołów z komputerem. Dostępny był także tryb aliteracji, w którym sztuczna inteligencja wykazała się umiejętnością wyszukiwania słów zaczynających się na tę samą literę, a funkcja Free-Form umożliwiała komunikację w obie strony.

Demo, które dostałem, to wersja Free-Form na Pixel 8 Pro. Inny dziennikarz z mojej grupy wprost o to poprosił, więc większość naszej demonstracji skupiała się na jednoczesnym korzystaniu z urządzenia i trybu przypominającego asystenta.

Zdjęcie osoby trzymającej Pixel 8 Pro i Project Astra, wskazujące, że trzyma ona w dłoni telefon

Gemini poprawnie zidentyfikował telefon w dłoni osoby.
Zdjęcie: Florence Ion / Gizmodo

Gdy kamera była skierowana na innego dziennikarza, Pixela 8 Pro, i Gemini mogli zidentyfikować, że obiektem jest osoba – wyraźnie powiedzieliśmy, że osoba zidentyfikowana jako mężczyzna. Następnie prawidłowo zidentyfikowano, że miał przy sobie telefon. W kolejnym pytaniu nasza grupa zapytała o jego ubranie. Otrzymano ogólną odpowiedź, że „wydaje się mieć na sobie zwykłe ubranie”. Następnie zapytaliśmy, co robi, na co Projekt Astra odpowiedział, że wygląda na to, że zakłada okulary przeciwsłoneczne (miał rację) i przyjmuje swobodną pozę.

Chwyciłem na chwilę Pixela 8 Pro. Poprosiłem Bliźnięta, aby poprawnie zidentyfikowały doniczkę ze sztucznymi kwiatami. To były tulipany. Bliźnięta zauważyły, że one również są kolorowe. Od tego momentu nie byłem pewien, co jeszcze wywołać, a potem mój czas dobiegł końca. Wyszedłem z większą liczbą pytań niż wchodząc.

Zdjęcie osoby trzymającej Pixela 8 Pro

Bliźnięta prawidłowo rozpoznały, że sztuczne kwiaty to tulipany.
Zdjęcie: Florence Ion / Gizmodo

W przypadku sztucznej inteligencji Google wydaje się to skokiem wiary. Widzę, jak identyfikacja osoby i jej działań może być narzędziem ułatwiającym dostępność, pomagającym osobie niewidomej lub słabowidzącej w poruszaniu się po otaczającym ją świecie. Ale nie o to chodziło w tej demonstracji. Miało to na celu zaprezentowanie możliwości Projektu Astra i sposobu, w jaki będziemy z nim współdziałać.

Moje najważniejsze pytanie brzmi: czy coś takiego jak Project Astra zastąpi Asystenta Google na urządzeniach z Androidem? W końcu ta sztuczna inteligencja może zapamiętać, gdzie odłożyłeś swoje rzeczy i wychwycić niuanse — przynajmniej tak przekazało demo. Nie udało mi się uzyskać odpowiedzi od kilku osób, które zapytałem w Google. Mam jednak przeczucie, że przyszłość Androida w mniejszym stopniu będzie polegać na dotykaniu telefonu w celu interakcji z telefonem, a bardziej na rozmowie z nim.

źródło