Dołącz do naszych codziennych i cotygodniowych biuletynów, aby otrzymywać najnowsze aktualizacje i ekskluzywne treści na temat wiodącego w branży zakresu sztucznej inteligencji. dowiedz się więcej


Udowodniwszy, że zamierza wspierać szeroką gamę zastosowań w przedsiębiorstwach – w tym tych, które nie wymagają drogich, wymagających dużych zasobów modeli językowych (LLM) – start-up AI zebrać wypuściło Command R7B, najmniejszy i najszybszy model z serii R.

Command R7B zaprojektowano z myślą o wspieraniu szybkiego prototypowania i iteracji oraz wykorzystuje generację wspomaganą odzyskiwaniem (RAG), aby poprawić swoją dokładność. Model ma długość referencyjną 128 tys. i obsługuje 23 języki. Cohere twierdzi, że przewyższa inne modele w swojej klasie o otwartej wadze – Gemma firmy Google, Llama firmy Meta, Minstrel firmy Mistral – w zadaniach obejmujących matematykę i kodowanie.

„Ten model jest przeznaczony dla programistów i firm, które muszą zoptymalizować szybkość, wydajność kosztową i zasoby obliczeniowe na potrzeby swoich zastosowań” – powiedział Aidan Gomez, współzałożyciel i dyrektor generalny Cohere. napisz w poście na blogu Ogłoszono nowy model

Lepsza wydajność niż konkurenci w matematyce, kodowaniu i RAG

Cohair został strategicznie skupiony na przedsiębiorstwach i ich unikalnych przypadkach użycia. Firma wprowadzona Command-r w marcu A w kwietniu potężne Command R+ zostało zmodernizowane przez cały rok Aby wspierać szybkość i wydajność. Drażnił Command R7B jako „ostateczny” model z serii R i oznajmił, że udostępni społeczności badaczy sztucznej inteligencji nowe modele.

Cohere powiedział, że ważnym obszarem zainteresowania podczas opracowywania Command R7B była poprawa wydajności w zakresie matematyki, logiki, kodu i tłumaczenia. Wydaje się, że firmie udało się osiągnąć sukces w tych obszarach, a nowy, mniejszy model zwyciężył Tablica liderów HuggingFace Open LLM W porównaniu do modeli o otwartej masie o podobnej wielkości, w tym Gemma 2 9B, Minstrel 8B i Llama 3.1 8B.

Ponadto najmniejszy model z serii R przewyższa konkurencyjne modele w obszarach obejmujących agentów AI, użycie narzędzi i RAG, co pomaga poprawić dokładność poprzez uziemienie wyników modelu w danych zewnętrznych. Cohere twierdzi, że Command R7B wyróżnia się technicznym stanowiskiem pracy i funkcjami interaktywnymi, w tym wsparciem w zakresie zarządzania ryzykiem korporacyjnym (ERM); Fakty techniczne; medialne miejsce pracy i pomoc w obsłudze klienta; Często zadawane pytania dotyczące HR; I kondensacja. Cohair zauważa również, że model „wyjątkowo dobrze” radzi sobie z pozyskiwaniem informacji liczbowych i manipulowaniem nimi w kontekście finansowym.

Podsumowując, Command R7B zajmuje średnio pierwsze miejsce w ważnych testach porównawczych, w tym w ocenie przestrzegania instrukcji (IFeval); Duża ławka twarda (BBH); Q&A na poziomie magisterskim, odporne na Google (GPQA); wielostopniowa logika miękka (MUSR); I wszechstronne, wielozadaniowe zrozumienie języka (MMLU).

Usuwanie niepotrzebnych funkcji połączeń

Command R7B może korzystać z narzędzi, w tym wyszukiwarek, interfejsów API i wektorowych baz danych, aby rozszerzyć swoją funkcjonalność. Cohere donosi, że wykorzystanie narzędzi przez model wypada znacząco na tle konkurencji w rankingu Berkeley Function-Calling Leaderboard, który ocenia dokładność modelu w wywoływaniu funkcji (łączenie się z zewnętrznymi danymi i systemami).

Gomez wyjaśnia, że ​​dowodzi to jego skuteczności w „rzeczywistych, różnorodnych i dynamicznych środowiskach” i eliminuje potrzebę stosowania niepotrzebnych funkcji połączeń. Może to sprawić, że będzie to dobry wybór do tworzenia „szybkich i wydajnych” agentów AI. Na przykład, wyjaśnia Cohair, Command R7B, działając jako agent wyszukiwania z wykorzystaniem Internetu, może podzielić złożone zapytania na cele cząstkowe, a jednocześnie dobrze radzi sobie z zaawansowanym rozumowaniem i wyszukiwaniem informacji.

Ponieważ jest mały, Command R7B można wdrożyć na słabszych i konsumenckich procesorach, procesorach graficznych i MacBookach, umożliwiając wnioskowanie na urządzeniu. Model ten jest już dostępny na platformie Cohere i HuggingFace. Ceny wynoszą 0,0375 USD za 1 milion tokenów wejściowych i 0,15 USD za 1 milion tokenów wyjściowych.

„To idealny wybór dla przedsiębiorstw poszukujących opłacalnego modelu opartego na wewnętrznych dokumentach i danych” – pisze Gomez.


Source link