Ten artykuł jest częścią specjalnego wydania VentureBeat „AI at Scale: From Vision to Viability”. Więcej informacji na temat tego specjalnego wydania można znaleźć tutaj.
Ten artykuł jest częścią specjalnego wydania VentureBeat „AI at Scale: From Vision to Viability”. Więcej na ten temat przeczytasz tutaj.
Dostosowanie narzędzi ogólnych w celu zrównoważenia ambicji z praktycznością zawsze było wyzwaniem, a w 2025 r. stawka jest wyższa niż kiedykolwiek. Przedsiębiorstwa chcące wdrożyć duże modele językowe (LLM) stoją w obliczu nowej rzeczywistości: skalowanie nie polega tylko na wdrażaniu większych modeli czy inwestowaniu w najnowocześniejsze narzędzia – chodzi o integrację sztucznej inteligencji w sposób, który przekształca operacje, wzmacnia zespoły i optymalizuje koszty. Sukces zależy nie tylko od technologii; Wymaga to zmiany kulturowej i operacyjnej, która dostosuje możliwości sztucznej inteligencji do celów biznesowych.
Imperatywy skalowania: dlaczego rok 2025 jest inny
W miarę jak generyczna sztuczna inteligencja ewoluuje od eksperymentów do wdrażania na poziomie przedsiębiorstwa, firmy stają w obliczu punktu zwrotnego. Podekscytowanie związane z wczesnym wdrożeniem ustąpiło miejsca praktycznym wyzwaniom związanym z utrzymaniem wydajności, zarządzaniem kosztami i zapewnianiem znaczenia na konkurencyjnych rynkach. Skalowanie sztucznej inteligencji w 2025 r. polega na odpowiedzi na trudne pytania: w jaki sposób firmy mogą sprawić, że narzędzia generatywne będą skuteczne w różnych działach? Jaka infrastruktura będzie wspierać rozwój sztucznej inteligencji bez ograniczonych zasobów? I, co być może najważniejsze, w jaki sposób zespoły wdrażają przepływy pracy oparte na sztucznej inteligencji?
Sukces zależy od trzech kluczowych zasad: identyfikacji jasnych przypadków użycia o dużej wartości; zachowanie elastyczności technicznej; oraz wspieranie siły roboczej przygotowanej do adaptacji. Przedsiębiorstwa, które odnoszą sukces, nie tylko wdrażają ogólną sztuczną inteligencję – projektują strategie, które dostosowują technologię do potrzeb biznesowych, stale dokonując ponownej oceny kosztów, wydajności i zmian kulturowych niezbędnych do uzyskania trwałego wpływu. Podejście to nie polega jedynie na wdrażaniu najnowocześniejszego sprzętu; Chodzi o stworzenie elastyczności operacyjnej i skalowalności w środowisku, w którym technologia i rynki ewoluują niezwykle szybko.
firmy lubią sprawiedliwy I Expedia Wykorzystaj te lekcje, pokazując, jak hybrydowe podejście do wdrożenia LLM może zmienić operacje. Łącząc platformy zewnętrzne z niszowymi rozwiązaniami, firmy te ilustrują siłę równoważenia elastyczności z precyzją i ustanawiania modelu dla innych.
Łączenie personalizacji z elastycznością
Decyzja o budowie lub zakupie ogólnych narzędzi AI jest często przedstawiana jako binarna, ale Wayfair i Expedia ilustrują korzyści płynące z dopracowanej strategii. CTO Wayfair, Fiona Tan, podkreśla wartość równoważenia elastyczności z ekskluzywnością. Wayfair wykorzystuje technologię Vertex AI firmy Google do zastosowań ogólnych, jednocześnie opracowując własne narzędzia do konkretnych potrzeb. Tan podzieliła się iteracyjnym podejściem firmy, wyjaśniając, że mniejsze, ekonomiczne modele często przewyższają większe i droższe opcje w oznaczaniu atrybutów produktów, takich jak kolory tkanin i mebli.
Podobnie Expedia wykorzystuje warstwę proxy LLM wielu dostawców, która umożliwia bezproblemową integrację różnych modeli. Rajesh Naidu, starszy wiceprezes Expedia, opisuje tę strategię jako sposób na zachowanie elastyczności przy jednoczesnej optymalizacji kosztów. „Zawsze podchodzimy do tego oportunistycznie i szukamy najlepszych w swojej klasie (modeli), tam gdzie ma to sens, ale chętnie też tworzymy dla własnej domeny” – wyjaśnia Naidu. Ta elastyczność gwarantuje, że zespół może dostosować się do pojawiających się potrzeb biznesowych, nie ograniczając się do jednego dostawcy.
Takie hybrydowe podejścia przypominają rozwój planowania zasobów przedsiębiorstwa (ERP) z lat 90. XX wieku, kiedy przedsiębiorstwa przyjmowały sztywne, gotowe do użycia rozwiązania i w dużym stopniu dostosowywane systemy do swoich przepływów pracy. Trzeba było podjąć decyzję. Wtedy, tak jak teraz, firmy, które odniosły sukces, dostrzegły wartość łączenia narzędzi zewnętrznych z dostosowanym rozwojem, aby sprostać konkretnym wyzwaniom operacyjnym.
Efektywność operacyjna podstawowych funkcji biznesowych
Zarówno Wayfair, jak i Expedia pokazują, że prawdziwa siła LLM leży w ukierunkowanych aplikacjach, które zapewniają wymierny wpływ. Wayfair wykorzystuje generatywną sztuczną inteligencję do wzbogacania swojego katalogu produktów, ulepszając metadane z autonomiczną dokładnością. To nie tylko usprawnia przepływ pracy, ale także poprawia wyszukiwanie i rekomendacje klientów. Tan podkreśla inne zastosowanie transformacyjne: wykorzystanie LLM do analizy starszych struktur baz danych. Ponieważ oryginalny projektant systemu nie jest już dostępny, Zen AI umożliwia Wayfairowi zmniejszenie długu technicznego i odkrycie nowej wydajności w starszych systemach.
Expedia z sukcesem integruje sztuczną inteligencję generacji z przepływami pracy związanymi z obsługą klienta i programistami. Naidu powiedział, że niestandardowe narzędzie Gen AI przeznaczone do podsumowywania rozmów gwarantuje, że „90% pasażerów może dotrzeć do agenta w ciągu 30 sekund”, przyczyniając się do znacznej poprawy zadowolenia klientów. Dodatkowo w całym przedsiębiorstwie wdrożono GitHub Copilot, przyspieszając tworzenie kodu i debugowanie. Te korzyści operacyjne podkreślają znaczenie dostosowania ogólnych możliwości sztucznej inteligencji do jasnych, wartościowych przypadków użycia biznesowego.
Rola sprzętu w ogólnej sztucznej inteligencji
Często pomija się kwestie sprzętowe związane ze skalowaniem LLM, odgrywają one jednak kluczową rolę w długoterminowej stabilności. Zarówno Wayfair, jak i Expedia korzystają obecnie z infrastruktury chmurowej do zarządzania ogólnymi obciążeniami AI. Tan zauważył, że Wayfair w dalszym ciągu ocenia skalowalność dostawców usług w chmurze, takich jak Google, mając na uwadze potencjalne zapotrzebowanie na zlokalizowaną infrastrukturę do skuteczniejszej obsługi aplikacji działających w czasie rzeczywistym.
Podejście Expedia kładzie również nacisk na elastyczność. Firma, działająca głównie na platformie AWS, wykorzystuje warstwę proxy do dynamicznego kierowania zadań do najbardziej odpowiedniego środowiska obliczeniowego. System ten równoważy wydajność z efektywnością kosztową, zapewniając, że szacunkowe koszty nie wymkną się spod kontroli. Naidu podkreślił znaczenie tej zdolności adaptacyjnej, ponieważ aplikacje AI generacji korporacyjnej stają się bardziej złożone i wymagają większej mocy obliczeniowej.
Skupienie się na infrastrukturze odzwierciedla szersze trendy w przetwarzaniu danych dla przedsiębiorstw, przypominające przejście od monolitycznych centrów danych do architektur mikrousług. W miarę jak firmy takie jak Wayfair i Expedia rozszerzają swoje możliwości LLM, pokazują, jak ważne jest równoważenie skalowalności chmury z pojawiającymi się opcjami, takimi jak przetwarzanie brzegowe i niestandardowe chipy.
Szkolenia, zarządzanie i zarządzanie zmianami
Wdrożenie LLM to nie tylko wyzwanie techniczne – to wyzwanie kulturowe. Zarówno Wayfair, jak i Expedia podkreślają znaczenie zwiększania gotowości organizacji do przyjęcia i integracji ogólnych narzędzi sztucznej inteligencji. Obszerne szkolenia w Wayfair zapewniają pracownikom wszystkich działów możliwość dostosowania się do nowego przepływu pracy, szczególnie w obszarach takich jak obsługa klienta, gdzie odpowiedzi generowane przez sztuczną inteligencję wymagają nadzoru człowieka, aby dopasować się do głosu i tonu firmy.
Expedia poszła o krok dalej w zarządzaniu, ustanawiając Radę ds. odpowiedzialnej sztucznej inteligencji, która nadzoruje wszystkie decyzje związane z generowaniem wiodących rozwiązań AI. Rada ta dba o to, aby wdrożenia były zgodne z wytycznymi etycznymi i celami biznesowymi, zwiększając w ten sposób zaufanie w całej organizacji. Naidu podkreśla znaczenie ponownego przemyślenia wskaźników pomiaru skuteczności ogólnej sztucznej inteligencji. Tradycyjne wskaźniki KPI często zawodzą, co skłoniło firmę Expedia do przyjęcia precyzyjnych i zapamiętywalnych wskaźników, które lepiej odpowiadają celom biznesowym.
Te adaptacje kulturowe mają kluczowe znaczenie dla długoterminowego sukcesu ogólnej sztucznej inteligencji w przedsiębiorstwach. Sama technologia nie jest w stanie wywołać zmian; Wykorzystanie możliwości ogólnej sztucznej inteligencji do transformacji wymaga wyposażonej siły roboczej i struktury zarządzania, która zapewnia odpowiedzialne wdrożenie.
Lekcje wspinania się po drabinie sukcesu
Doświadczenia Wayfair i Expedia dostarczają cennych lekcji dla każdej organizacji chcącej efektywnie skalować LLM. Obie firmy pokazują, że sukces zależy od zidentyfikowania jasnych biznesowych przypadków użycia, zachowania elastyczności w wyborze technologii i wspierania kultury adaptacji. Ich hybrydowe podejście zapewnia model równoważenia innowacji z wydajnością, zapewniając, że inwestycje w ogólną sztuczną inteligencję przyniosą solidne rezultaty.
Tempo zmian technologicznych i kulturowych sprawia, że skalowanie AI stanie się bezprecedensowym wyzwaniem w roku 2025. Strategie hybrydowe, elastyczna infrastruktura i silne kultury danych, które dziś definiują pomyślne wdrożenia sztucznej inteligencji, położą podwaliny pod kolejną falę innowacji. Przedsiębiorstwa, które budują te fundamenty, nie będą już po prostu skalować sztucznej inteligencji; Będą mierzyć elastyczność, zdolność adaptacji i przewagę konkurencyjną.
Patrząc w przyszłość, wyzwania związane z przewidywalnymi kosztami, możliwościami działania w czasie rzeczywistym i zmieniającymi się potrzebami w zakresie infrastruktury będą w dalszym ciągu kształtować krajobraz sztucznej inteligencji generacji korporacyjnej. Jak wyraźnie stwierdził Naidu: „Sztuczna inteligencja generacji i LLM będą dla nas inwestycjami długoterminowymi i wyróżniły nas w przestrzeni podróżniczej. Musimy pamiętać, że będzie to wymagało świadomego ustalenia priorytetów inwestycji i zrozumienia przypadków użycia.
Source link