Wszystko ogłoszone na Google I/O 2024, w tym Gemini AI, Project Astra, Android 15 i nie tylko

Pod koniec I/O, corocznej konferencji programistów Google w Shoreline Amphitheatre w Mountain View, dyrektor generalny Google, Sundar Pichai, ujawnił, że firma powiedziała „AI” 121 razy. W zasadzie to było sednem dwugodzinnego przemówienia Google – umieszczenia sztucznej inteligencji w każdej aplikacji i usłudze Google, z której korzystają ponad dwa miliardy ludzi na całym świecie. Oto wszystkie najważniejsze aktualizacje ogłoszone przez Google podczas wydarzenia.

Google

Google ogłoszony zupełnie nowy model AI o nazwie Gemini 1.5 Flash, który według niego jest zoptymalizowany pod kątem szybkości i wydajności. Flash plasuje się pomiędzy Gemini 1.5 Pro i Gemini 1.5 Nano, który jest najmniejszym modelem firmy działającym lokalnie na urządzeniu. Google twierdzi, że stworzyło Flasha, ponieważ programiści chcieli lżejszego i tańszego modelu niż Gemini Pro do tworzenia aplikacji i usług opartych na sztucznej inteligencji, zachowując jednocześnie takie elementy, jak długie okno kontekstowe zawierające milion tokenów, co odróżnia Gemini Pro od konkurencyjnych modeli. Jeszcze w tym roku Google podwoi okno kontekstowe Gemini do dwóch milionów tokenów, co oznacza, że ​​będzie w stanie przetworzyć jednocześnie dwie godziny wideo, 22 godziny audio, ponad 60 000 linii kodu lub ponad 1,4 miliona słów .

Projekt Astra

Google

Google pokazał się Project Astra, wczesna wersja uniwersalnego asystenta opartego na sztucznej inteligencji, według dyrektora generalnego Google DeepMind, Demisa Hassabisa, to opracowana przez Google wersja agenta AI, „która może być pomocna w życiu codziennym”.

W filmie, który według Google został nakręcony w jednym ujęciu, użytkownik Astry porusza się po londyńskim biurze Google, trzymając telefon i kierując aparat na różne rzeczy – głośnik, kod na tablicy i na okno – i ma naturalna rozmowa z aplikacją na temat tego, czym się wydaje. W jednym z najbardziej imponujących momentów filmu osoba prawidłowo informuje użytkownika, gdzie wcześniej zostawiła okulary, a użytkownik nawet ich nie podnosił.

Film kończy się nieoczekiwanym zwrotem akcji — gdy użytkownik znajdzie i założy brakujące okulary, dowiadujemy się, że je mają pokładowy system kamer i potrafią wykorzystywać Project Astra do płynnego prowadzenia rozmowy z użytkownikiem, co może wskazywać, że Google może pracować nad konkurentem inteligentnych okularów Ray Ban firmy Meta.

Zapytaj Zdjęcia

Google

Zdjęcia Google już wcześniej były inteligentne, jeśli chodzi o wyszukiwanie określonych zdjęć lub filmów, ale dzięki sztucznej inteligencji Google przenosi wszystko na wyższy poziom. Jeśli jesteś subskrybentem Google One w USA, będziesz mógł zadawać Zdjęciom Google złożone pytania, np. „pokaż mi najlepsze zdjęcie z każdego parku narodowego, który odwiedziłem”, gdy ta funkcja zostanie wdrożona w ciągu najbliższych kilku miesięcy. Zdjęcia Google wykorzystają informacje GPS oraz własną ocenę tego, co jest „najlepsze”, aby przedstawić Ci opcje. Możesz także poprosić Zdjęcia Google o wygenerowanie podpisów do opublikowania zdjęć w mediach społecznościowych.

Widzę

Google

Nowe silniki Google do tworzenia multimediów oparte na sztucznej inteligencji nazywają się Veo i Imagen 3. Veo to odpowiedź Google na Sora OpenAI. Może generować „wysokiej jakości” filmy w rozdzielczości 1080p, które mogą trwać „ponad minutę” – twierdzi Google i potrafi rozumieć koncepcje kinowe, takie jak timelapse.

Z kolei Imagen 3 to generator zamiany tekstu na obraz, który według Google radzi sobie z tekstem lepiej niż jego poprzednia wersja, Imagen 2. W rezultacie powstał najwyższej jakości model zamiany tekstu na obraz, charakteryzujący się „niesamowitym poziomem szczegółowości” dla „ fotorealistyczne, realistyczne obrazy” i mniej artefaktów – zasadniczo przeciwstawiając się DALLE-3 OpenAI.

Wyszukiwarka Google

Google

Google jest wprowadzanie dużych zmian jak zasadniczo działa wyszukiwarka. Większość ogłoszonych dzisiaj aktualizacji, takich jak możliwość zadawania naprawdę skomplikowanych pytań („Znajdź najlepsze studia jogi lub pilates w Bostonie i pokaż szczegóły ich ofert wstępnych oraz czasu spaceru z Beacon Hill”) oraz korzystanie z wyszukiwarki do planowania posiłków i wygranych wakacji nie będą dostępne, jeśli nie wyrazisz zgody na Search Labs, platformę firmy, która umożliwia wypróbowanie funkcji eksperymentalnych.

Jednak nowa, duża funkcja, którą Google nazywa Przeglądami AI i którą firma testuje od roku, w końcu jest udostępniana milionom ludzi w USA. Wyszukiwarka Google będzie teraz domyślnie wyświetlać odpowiedzi wygenerowane przez sztuczną inteligencję nad wynikami, a firma twierdzi, że do końca roku udostępni tę funkcję ponad miliardowi użytkowników na całym świecie.

Bliźnięta na Androidzie

Google

Google jest integrując Bliźnięta bezpośrednio do Androida. Kiedy Android 15 zostanie wydany jeszcze w tym roku, Gemini będzie wiedział, jaką aplikację, obraz lub film używasz, dzięki czemu będziesz mógł wyświetlić je jako nakładkę i zadać pytania kontekstowe. Gdzie to pozostawia Asystenta Google, który już to robi? Kto wie! Google w ogóle nie wspomniał o tym podczas dzisiejszego przemówienia.

Było też mnóstwo innych aktualizacji. Google powiedział, że to doda cyfrowe znaki wodne do wideo i tekstu generowanego przez sztuczną inteligencję, udostępnij Gemini na panelu bocznym w Gmailu i Dokumentach włącz a wirtualny członek zespołu AI w Workspace, podsłuchuj rozmowy telefoniczne i wykryj, czy jesteś oszukany w czasie rzeczywistym i wiele więcej.

Bądź na bieżąco ze wszystkimi nowościami z Google I/O 2024 Tutaj!

źródło