W mailu Sundar Pichai poinformował, że pod koniec ubiegłego roku firma wprowadziła na rynek najnowszy model sztucznej inteligencji Gemini 2.0, a także kwantowy układ obliczeniowy Willow, który zakończy rok 2024 na wysokim poziomie. Dodał, że innowacje wprowadzono także w wyszukiwarkach, YouTube i innych.

  1. „Na początku roku przeglądałem wersje demonstracyjne produktów i funkcji, które wprowadzimy w ciągu najbliższych kilku miesięcy. Postęp jest niesamowity i jestem pewien, że tę dynamikę utrzymamy w 2025 r. Will kontynuować” – napisał Pichai.
  2. W grudniu Google ogłosił kilka ważnych ogłoszeń dotyczących sztucznej inteligencji, sprzętu i rozszerzonej rzeczywistości. Wprowadziła Gemini 2.0, następną generację modeli AI, zaprojektowaną z myślą o „erze agentów”, która zapewnia multimodalność i wykorzystanie narzędzi. Celem modelu jest lepsze zrozumienie świata, myślenie przyszłościowe i podejmowanie działań pod nadzorem użytkownika.
  3. Google uruchomiło Deep Research, nową funkcję w Gemini Advanced, która wykorzystuje zaawansowane rozumowanie i możliwości długiego kontekstu, aby działać jako asystent badawczy. Wydała także eksperymentalną wersję Gemini 2.0 Flash, modelu o zwiększonej wydajności i szybkości, dostępnego dla programistów poprzez API Gemini w Google AI Studio i Vertex AI.
  4. Jeśli chodzi o sprzęt, Google ogłosiło ogólną dostępność Trillium, procesora tensorowego (TPU) szóstej generacji. Trillium zaprojektowano z myślą o obciążeniach związanych ze sztuczną inteligencją, zapewniając znaczną poprawę wydajności treningu, przepustowości wnioskowania i efektywności energetycznej w porównaniu z poprzednimi generacjami. Wykorzystano go do szkolenia Gemini 2.0 i jest teraz dostępny dla klientów Google Cloud.
  5. Google zaprezentowało także Willow, nowy układ kwantowy, który wykazał zdolność korekcji błędów i wydajność, które mogą pomóc w zbudowaniu użytecznego komputera kwantowego na dużą skalę. Willow dokonała wielkiego przełomu w korekcji błędów kwantowych i przeprowadziła obliczenia, których superkomputerowi zajęłoby 10 septylionów lat w mniej niż pięć minut.
  6. Google wprowadziło także Androida XR, nową platformę opracowaną we współpracy z firmami Samsung i Qualcomm, zaprojektowaną w celu rozszerzenia rzeczywistości na zestawy słuchawkowe i okulary. Celem Androida XR jest zapewnienie tym urządzeniom funkcji asystentów za pomocą sztucznej inteligencji. Początkowo będzie on uruchamiany na zestawach słuchawkowych – w tym jednym o kodowej nazwie Project Mohan – a później będzie obsługiwał okulary.
  7. Gemini zostanie zintegrowane z Androidem XR, aby zapewnić obsługę rozmów i pomóc użytkownikom kontrolować swoje urządzenia. Aplikacje takie jak YouTube i Mapy Google są również przepracowywane pod kątem zestawu słuchawkowego.
  8. Firma wprowadziła także Google AgentSpace, zaprojektowaną w celu odblokowania specjalistycznej wiedzy przedsiębiorstw poprzez wykorzystanie agentów AI do połączenia logiki Gemini, wyszukiwania o jakości Google i danych korporacyjnych.
  9. AgentSpace zapewnia pojedynczy, multimodalny agent wyszukiwania marki firmy dla organizacji. Umożliwia pracownikom wykonywanie złożonych zadań, interakcję z danymi przedsiębiorstwa za pośrednictwem programu NotebookLM (asystent sporządzania notatek i badań), wyszukiwanie informacji w całym przedsiębiorstwie i automatyzację zadań biznesowych za pomocą doświadczonych agentów.
  10. NotebookLM otrzymał aktualizacje, w tym nowy interfejs, interaktywność audio i wersję premium, NotebookLM Plus. Google udostępniło także nowe wersje swoich modeli tworzenia wideo i obrazów, Veo 2 i Imagen 3, a także nowe narzędzie o nazwie Whisk, które pozwala użytkownikom generować obrazy przy użyciu innych obrazów zamiast tekstu.

Source link