Tańczyłem z Project Astra, agentem AI Google.  Oto, co się stało.

Projekt Astra była najfajniejszą nową technologią Google pokazał się na swoim We/Wy konferencja we wtorek.

Po przemówieniu dziennikarzy zapędzono do strefy demonstracyjnej Projektu Astra. To eksperymentalna próba ponownego wyobrażenia sobie, kim mogą być agenci sztucznej inteligencji w przyszłości.

„Zawsze chcieliśmy zbudować uniwersalnego agenta, który będzie przydatny w życiu codziennym” – powiedział Demis Hassabis, szef Google DeepMind.

Gdy już dotarliśmy do lokalizacji testowej, Google wpuścił cztery dziennikarzy do małych kabin demonstracyjnych. Zanim weszliśmy do środka, czekając w kolejce, dwóch członków zespołu Project Astra z DeepMind opowiedziało nam, jak korzystać z tej technologii.

Zaproponowali nam cztery tryby do wypróbowania: Storyteller, Pictionary, Free-Form i Aliteration.

Tryb dowolny

Wypróbowaliśmy tryb dowolny. Max Cherney, dziennikarz Reutersa, podniósł dostarczony przez Google telefon z Androidem i skierował aparat na mnie.

„Opisz jego ubranie” – powiedział Max.

Modelka Gemini z Google przejrzała transmisję wideo na żywo z telefonu i stwierdziła, że ​​mam na sobie zwykłe ubrania. Dokładna, solidna odpowiedź.

Zacząłem tańczyć, a Max zapytał: „Co on teraz robi?” W pewnym sensie Bliźnięta odpowiedziały niepoprawnie. Było napisane, że założyłem okulary przeciwsłoneczne. I była to prawda, bo do tańca zakładałam okulary przeciwsłoneczne. Ale nie zauważył tańca. Trzeba przyznać, że słabo tańczyłem, więc może model AI to wybaczy.

Brak notowań giełdowych

Następnie Max poprosił Bliźniąt o krytykę mojego stroju, ponieważ chciał, aby Bliźnięta przeprowadziły analizę i podzieliły się swoim punktem widzenia.

Model sztucznej inteligencji powiedział: „Nie mogę teraz podać notowań akcji”. Wszyscy zatrzymaliśmy się, gdy magia AI nagle się skończyła.

Samochód i historia

Następnie przeniosłem się do dużego ekranu dotykowego, który oferował cztery tryby do wypróbowania. Wybrałem Pictionary. Narysowałem naprawdę zły samochód, a Bliźnięta powiedziały: „Wygląda jak samochód”.

Poprosiłem o umieszczenie pojazdu w ciekawej historii. „Smukły, niebieski samochód pędził autostradą niczym samotny podróżnik w księżycową noc” – powiedział Gemini.

Kazałem wjechać samochodem na rynek, a Gemini powiedział, że w rzeczywistości byłoby to niebezpieczne, ale mogłoby spowodować dobry zwrot akcji w fabule.

“Czy to to?” – zapytał Bliźnięta.

Narysowałem stół z owocami na rynku. Było jeszcze gorzej niż w samochodzie. Potem powiedziałem, że ktoś powinien ukraść owoce w tej historii.

„Ach, złodziej owoców dodaje ciekawy zwrot akcji! Czy jak dotąd uchodzi im to na sucho?” Powiedział Bliźnięta.

W tym momencie demonstracja się zakończyła i wyprowadzono nas ze stoiska.

Gregory Wayne i Kapitan Cook

Na zewnątrz spotkałem Gregory’ego Wayne’a, szefa Projektu Astra. Pracuje w DeepMind od około dziesięciu lat i omawialiśmy początki Projektu Astra.

Powiedział, że fascynuje go sposób, w jaki ludzie komunikują się za pomocą języka. Nie tylko słowa pisane i mówione, ale wszystkie inne formy komunikacji, które sprawiają, że interakcje międzyludzkie są tak bogate i satysfakcjonujące.

Opowiedział historię o tym, jak Kapitan Cook przybył na Ziemię Ognistą i spotkał się z mieszkańcami. Nie mówili tym samym językiem, więc porozumiewali się poprzez różne czynności, takie jak podnoszenie patyków i rzucanie ich na bok, co oznaczało, że Cook i jego załoga byli mile widziani.

Wayne i jego koledzy byli zafascynowani tą historią, ponieważ pokazała wszystkie inne sposoby komunikowania się ludzi, wykraczające poza to, czego uczy się za pomocą słów pisanych i mówienia na głos.

Poza chatbotami

Wayne powiedział, że jest to część inspiracji Projektu Astra. Chodzi o to, aby wyjść poza to, co obecnie robią chatboty, czyli głównie rozumienie słów pisanych i mówionych oraz prowadzenie prostych rozmów, podczas których komputer coś mówi, potem robi to człowiek, potem znowu komputer i tak dalej.

Jednym z głównych celów Projektu Astra jest stworzenie modeli sztucznej inteligencji, które umożliwią zrozumienie wielu innych rzeczy związanych z komunikacją tekstową i mowę. Mogą to być sygnały ręczne lub kontekst tego, co dzieje się na świecie w momencie rozmowy.

W przyszłości może to obejmować coś w rodzaju modelu sztucznej inteligencji lub agenta wykrywającego coś w tle przekazu wideo i ostrzegającego rozmówcę. Może to być zbliżający się rower lub informacja dla użytkownika, gdy sygnalizacja świetlna zmieni kolor.

Opcje są nieograniczone i obejmują także model sztucznej inteligencji, który poprzez swego rodzaju czytanie pokoju rozumie, że powinien przestać mówić i pozwolić człowiekowi coś powiedzieć.

SuperEvilMegaCorp

Opowiedziałem Wayne’owi o nieco rozczarowującym momencie, kiedy Gemini nie skrytykowało moich ubrań, a zamiast tego stwierdziło, że nie może w tej chwili podać notowań giełdowych.

Natychmiast spojrzał na moją koszulkę, na której widniało prawdziwe logo startupu z napisem „SuperEvilMegaCorp”. Wayne wysunął teorię, że Gemini zobaczył nazwę korporacji i domyślił się, że chcemy poznać informacje finansowe na temat tej firmy.

SuperEvilMegaCorp to startup z branży gier z Doliny Krzemowej, który nie jest notowany na giełdzie, dlatego nie można uzyskać informacji giełdowych w czasie rzeczywistym. Bliźnięta o tym nie wiedziały. Może jednak właśnie teraz się tego uczy.

źródło