Garman powiedział WIRED przed wydarzeniem, że Amazon wprowadzi również szereg narzędzi, które pomogą klientom radzić sobie z generatywnymi modelami sztucznej inteligencji, które jego zdaniem są często zbyt drogie, zawodne i nieprzewidywalne.
Należą do nich sposób na zwiększenie możliwości mniejszych modeli przy użyciu większych modeli, system zarządzania setkami różnych agentów AI oraz narzędzie dostarczające dowodów na to, że dane wyjściowe chatbota są dokładne. Amazon tworzy własne modele sztucznej inteligencji, aby rekomendować produkty na swojej platformie e-commerce i przy innych funkcjach, ale przede wszystkim służy jako platforma pomagająca innym firmom w tworzeniu własnych programów sztucznej inteligencji.
Steven Dickens, dyrektor generalny i główny analityk w Hyperframe Research, twierdzi, że chociaż Amazon nie ma produktu typu ChatGPIT, który reklamowałby jego możliwości w zakresie sztucznej inteligencji, zakres usług w chmurze zapewni mu przewagę w sprzedaży generatywnej sztucznej inteligencji innym osobom. „Rozszerzalność AWS — to będzie interesująca rzecz” — mówi.
Własna linia chipów Amazona sprawi, że sprzedawane przez niego oprogramowanie AI będzie tańsze. „Krzem będzie w przyszłości kluczowym elementem strategii każdego hiperskalownika” – mówi Dickens, odnosząc się do dostawców usług w chmurze oferujących sprzęt do budowy największej i najbardziej wydajnej sztucznej inteligencji. Zauważył również, że Amazon opracowuje swój niestandardowy krzem dłużej niż konkurenci.
Garman twierdzi, że coraz większa liczba klientów AWS przechodzi obecnie od wersji demonstracyjnych do tworzenia opłacalnych komercyjnie produktów i usług wykorzystujących generatywną sztuczną inteligencję. „Jedną z rzeczy, którymi jesteśmy naprawdę podekscytowani, jest obserwowanie postępów klientów w zakresie eksperymentów ze sztuczną inteligencją i weryfikacją koncepcji” – powiedział WIRED.
Garman twierdzi, że wielu klientów jest mniej zainteresowanych przesuwaniem granic generycznej sztucznej inteligencji niż szukaniem sposobów na uczynienie tej technologii tańszą i bardziej niezawodną.
Na przykład nowo ogłoszona usługa AWS o nazwie Model Distillation może wyprodukować mniejszy model, który jest szybszy i tańszy w obsłudze, a jednocześnie ma te same możliwości co większy model. „Załóżmy, że prowadzisz firmę ubezpieczeniową” – mówi Garman. „Możesz wziąć cały zestaw pytań, umieścić je w naprawdę zaawansowanym modelu, a następnie wykorzystać go do wyszkolenia mniejszych modeli, aby stały się ekspertami w tych sprawach”.
Ogłoszone dzisiaj kolejne nowe narzędzie w chmurze, Bedrock Agents, może służyć do tworzenia tak zwanych agentów AI i zarządzania nimi, którzy automatyzują przydatne zadania, takie jak obsługa klienta, przetwarzanie zamówień i analityka. Obejmuje głównego agenta, który będzie zarządzał zespołem podwładnych AI, dostarczając raporty na temat ich działania i koordynując zmiany. „Zasadniczo można stworzyć agenta, który będzie twierdził, że jest szefem wszystkich pozostałych agentów” – mówi Garman.