Aktualizacje Gemini AI, nowe funkcje wyszukiwania i nie tylko

Dyrektor generalny Google, Sundar Pichai, przemawia na konferencji programistów Google I/O.

Andrej Sokołow | Sojusz Obrazowy | Obrazy Getty’ego

Google we wtorek był gospodarzem corocznej konferencji programistów I/O i przedstawił szereg rozwiązań sztuczna inteligencja produktów, od nowych funkcji wyszukiwania i czatu po sprzęt AI dla klientów korzystających z chmury. Zapowiedzi podkreślają koncentrację firmy na sztucznej inteligencji, która odpiera konkurencję, taką jak OpenAI.

Wiele funkcji lub narzędzi udostępnionych przez Google znajduje się dopiero w fazie testów lub jest dostępnych wyłącznie dla programistów, ale dają one wyobrażenie o tym, jak technologiczny gigant myśli o sztucznej inteligencji i w co inwestuje. Google zarabia na sztucznej inteligencji, pobierając opłaty od programistów korzystających z jej modeli oraz od klientów płacących za konkurenta Gemini Advanced CzatGPTktóry kosztuje 19,99 USD miesięcznie i może pomóc użytkownikom podsumowywać pliki PDF, Dokumenty Google i nie tylko.

Wtorkowe ogłoszenia są następstwem podobnych wydarzeń organizowanych przez konkurentów AI. Wcześniej w tym miesiącu, Amazonka-poparty Ogłoszono Antropię pierwszą w historii ofertę dla przedsiębiorstw i bezpłatną aplikację na iPhone’a. Tymczasem, OpenAI w poniedziałek uruchomiono nowy model AI i komputerowa wersja ChatGPT wraz z nowym interfejsem użytkownika.

Oto co ogłosiło Google.

Aktualizacje AI Gemini

Google przedstawił aktualizacje do Gemini 1.5 Projego model AI, który wkrótce będzie w stanie obsłużyć jeszcze więcej danych — na przykład narzędzie może podsumować 1500 stron tekstu przesłanego przez użytkownika.

Dostępny jest także nowy model Gemini 1.5 Flash AI, który według firmy jest bardziej opłacalny i przeznaczony do mniejszych zadań, takich jak szybkie podsumowywanie rozmów, dodawanie podpisów do zdjęć i filmów oraz pobieranie danych z dużych dokumentów.

Dyrektor generalny Google’a Sundara Pichaia podkreślił ulepszenia tłumaczeń Gemini, dodając, że będzie ono dostępne dla wszystkich programistów na całym świecie w 35 językach. W Gmailu Gemini 1.5 Pro będzie analizować załączone pliki PDF i filmy, wyświetlając podsumowania i nie tylko, powiedział Pichai. Oznacza to, że jeśli przegapiłeś długi wątek e-mailowy na wakacjach, Gemini będzie mógł go podsumować wraz z ewentualnymi załącznikami.

Nowe aktualizacje Gemini są również pomocne przy wyszukiwaniu w Gmailu. Jeden przykład podany przez firmę: Jeśli porównujesz ceny naprawy dachu oferowane przez różnych wykonawców i szukasz podsumowania, które pomoże Ci podjąć decyzję, kogo wybrać, Gemini może zwrócić trzy oferty wraz z przewidywanymi datami rozpoczęcia podanymi w różnych wiadomościach e-mail. wątki.

Google powiedział, że Gemini ostatecznie zastąpi Asystenta Google na telefonach z Androidem, co sugeruje, że będzie potężniejszym konkurentem Jabłka Siri na iPhonie.

Przegląd Google Veo, Imagen 3 i Audio

Google ogłosiło „Veo” – swój najnowszy model do generowania wideo w wysokiej rozdzielczości, oraz Imagen 3 – najwyższej jakości model przetwarzania tekstu na obraz, który zapewnia realistyczne obrazy i „mniej rozpraszających artefaktów wizualnych niż nasze poprzednie modele”.

Narzędzia będą dostępne dla wybranych twórców od poniedziałku i trafią do Vertex AI, platformy Google do uczenia maszynowego, która umożliwia programistom szkolenie i wdrażanie aplikacji AI.

Firma zaprezentowała także „Przeglądy audio” – możliwość generowania dyskusji audio na podstawie wprowadzonego tekstu. Na przykład, jeśli użytkownik prześle plan lekcji, chatbot może wymówić jego podsumowanie. Lub, jeśli poprosisz o przykład problemu naukowego z prawdziwego życia, może to zrobić za pomocą interaktywnego dźwięku.

Osobno firma zaprezentowała także „AI Sandbox” – gamę generatywnych narzędzi AI do tworzenia muzyki i dźwięków od podstaw w oparciu o podpowiedzi użytkownika.

Jednak narzędzia generatywnej sztucznej inteligencji, takie jak chatboty i twórcy obrazów, nadal mają problemy z dokładnością.

Szef wyszukiwarki Google Prabhakar Raghavan powiedział pracownikom w zeszłym miesiącu konkurenci „być może mają nowy gadżet, którym ludzie lubią się bawić, ale mimo to odwiedzają Google, aby zweryfikować to, co tam widzą, ponieważ jest to zaufane źródło, a w epoce generatywnej sztucznej inteligencji staje się to coraz ważniejsze”. “

Na początku tego roku Google wprowadziło generator obrazów oparty na technologii Gemini. Użytkownicy odkryli nieścisłości historyczne, które stały się wirusowe w Internecie firma wycofała tę funkcjętwierdząc, że uruchomi go ponownie w nadchodzących tygodniach. Ta funkcja nadal nie została ponownie wydana.

Nowe funkcje wyszukiwania

Według Liz Reid, szefowej wyszukiwarki Google, gigant technologiczny wprowadza w poniedziałek w wyszukiwarce Google „Przeglądy AI” w USA. Przeglądy AI to krótkie podsumowanie odpowiedzi na najbardziej złożone pytania wyszukiwania. Na przykład, jeśli użytkownik szuka najlepszego sposobu czyszczenia skórzanych butów, na górze strony wyników może wyświetlić się „Przegląd sztucznej inteligencji” przedstawiający wieloetapowy proces czyszczenia zebrany na podstawie informacji zsyntetyzowanych z Internetu.

Firma podała, że ​​planuje wprowadzić funkcje planowania przypominające asystenta bezpośrednio w wyszukiwarce. Wyjaśniono, że użytkownicy będą mogli wyszukać na przykład hasło „Utwórz 3-dniowy plan posiłków dla grupy, który będzie łatwy do przygotowania” i uzyskasz punkt wyjścia z szeroką gamą przepisów z całego Internetu. .

Jeśli chodzi o postęp w oferowaniu „multimodalności” lub integracji większej liczby zdjęć i filmów w ramach generatywnych narzędzi AI, Google oświadczyło, że rozpocznie testowanie możliwości zadawania przez użytkowników pytań za pośrednictwem wideo, na przykład filmowania problemu z posiadanym produktem, przesyłania go i poprosić wyszukiwarkę o rozwiązanie problemu. W jednym przykładzie Google pokazało osobę filmującą zepsuty gramofon i pytającą, dlaczego nie działa. Wyszukiwarka Google znalazła model gramofonu i zasugerowała, że ​​może on działać nieprawidłowo, ponieważ nie jest odpowiednio wyważony.

Kolejna testowana nowa funkcja nosi nazwę „AI Teammate”, która zostanie zintegrowana z Google Workspace użytkownika. Może zbudować przeszukiwalną kolekcję prac z wiadomości i wątków e-mailowych z większą liczbą plików PDF i dokumentów. Na przykład przyszły założyciel może zapytać członka zespołu AI: „Czy jesteśmy gotowi na start?” a asystent przedstawi analizę i podsumowanie na podstawie informacji, do których ma dostęp w Gmailu, Dokumentach Google i innych aplikacjach Workspace.

Projekt Astra

Sprzęt AI

Google ogłosiło także Trillium, szóstą generację TPU, czyli jednostkę przetwarzającą tensor – element sprzętowy niezbędny do wykonywania złożonych operacji AI – który ma być dostępny dla klientów korzystających z chmury pod koniec 2024 roku.

TPU nie mają na celu konkurować z innymi chipami, takimi jak Nvidii jednostki przetwarzające grafikę. Na przykład podczas I/O Pichai zauważył, że Google Cloud zacznie oferować procesory graficzne Nvidia Blackwell na początku 2025 roku.

W marcu firma Nvidia poinformowała, że ​​Google będzie korzystać z platformy Blackwell do „różnych wdrożeń wewnętrznych i będzie jednym z pierwszych dostawców usług w chmurze oferującym instancje obsługiwane przez technologię Blackwell” oraz że dostęp do systemów Nvidii pomoże Google oferować narzędzia na dużą skalę dla przedsiębiorstw programiści budujący duże modele językowe.

W swoim przemówieniu Pichai podkreślił „długotrwałą współpracę Google z firmą Nvidia”. Firmy współpracują ze sobą od ponad dekadęa Pichai powiedział w przeszłości, że spodziewa się, że za dziesięć lat nadal będą to robić.

Nie przegap tych ekskluzywnych materiałów w CNBC PRO

Obejrzyj cały wywiad CNBC z dyrektorem generalnym Alphabet, Sundarem Pichai

źródło