IBM udostępnia na zasadach open source swoje modele Granite AI — i to oznacza biznes

Obrazy BlackJack3D/Getty

Otwarte pozyskiwanie dużych modeli językowych (LLM) nie jest łatwe. Po prostu zapytaj Inicjatywa otwartego oprogramowania (OSI), która pracuje nad systemem kompatybilnym ze sztuczną inteligencją definicja open source przez prawie dwa lata. Niektóre firmy – na przykład Meta – twierdzić, że ma otwarte oprogramowanie ich LLM. (Nie zrobili tego.) Ale teraz IBM poszedł dalej i tego dokonał.

IBM zarządzał open sourcem Kod granitu przy użyciu danych do wstępnego uczenia z publicznie dostępnych zestawów danych, takich jak GitHub Code Clean, dane Starcoder, publiczne repozytoria kodu i problemy z GitHub. Krótko mówiąc, IBM dołożył wszelkich starań, aby uniknąć problemów związanych z prawami autorskimi i kwestiami prawnymi. Modele Granite Code Base są trenowane na tokenach danych kodowych o rozmiarze od 3 do 4 terabajtów i zestawach danych związanych z kodami języka naturalnego.

Również: Dlaczego generatywne modele AI typu open source są wciąż o krok za GPT-4

Wszystkie te modele objęte są licencją Licencja Apache 2.0 do celów badawczych i komercyjnych. To ostatnie słowo – komercyjny – powstrzymało inne główne firmy LLM przed korzystaniem z oprogramowania typu open source. Nikt inny nie chciał dzielić się swoimi gadżetami LLM.

Jednak, jak powiedział główny naukowiec IBM Research, Ruchir Puri: „Przekształcamy krajobraz generatywnej sztucznej inteligencji w oprogramowaniu, udostępniając najskuteczniejsze i opłacalne kody LLM, umożliwiające otwartej społeczności wprowadzanie innowacji bez ograniczeń”.

Być może bez ograniczeń, ale nie bez uwzględnienia konkretnych zastosowań.

Jak powiedziała w zeszłym roku dyrektor generalna ekosystemu IBM Kate Woolley, modele Granite nie polegają na „próbie bycia wszystkim dla wszystkich. Tu nie chodzi o pisanie wierszy o swoim psie. Chodzi o wyselekcjonowane modele, które można dostrajać i które są bardzo ukierunkowane na przypadki użycia biznesowego, z których chcemy korzystać w przedsiębiorstwie. W szczególności służą do programowania.”

Te modele składające się wyłącznie z dekodera, trenowane na kodzie ze 116 języków programowania, obejmują od 3 do 34 miliardów parametrów. Obsługują wiele zastosowań programistów, od modernizacji złożonych aplikacji po zadania ograniczone pamięcią na urządzeniu.

IBM wykorzystał już te LLM wewnętrznie w Asystent kodu IBM Watsonx (WCA) produkty, takie jak WCA dla Ansible Lightspeed dla Automatyki IT i WCA dla IBM Z do modernizacji aplikacji COBOL. Nie każdego stać na Watsonx, ale teraz każdy może pracować z wykorzystaniem Granite LLM InstructLab IBM i Red Hat.

Również: Najlepsze chatboty AI: ChatGPT i alternatywy

Jak powiedział wiceprezes Red Hat i dyrektor ds. produktu Ashesh Badani, InstructLab „obniży wiele barier stojących przed GenAI w chmurze hybrydowej, od ograniczonych umiejętności w zakresie analizy danych po same wymagane zasoby”. Chodzi o to, aby obniżyć poziom wejścia dla programistów, którzy chcą korzystać z LLM.

Jak nisko? Jak powiedział Matt Hicks na Szczyt Red Hat„Możliwości, które jeszcze rok temu były łączone z wysokiej klasy, dość egzotycznym sprzętem, mogą teraz działać na laptopie. Techniki szkoleniowe, które kiedyś kosztowały setki milionów dolarów, są teraz replikowane za kilka tysięcy”.

Na przykład oprócz InstructLab możesz używać Ollma do lokalnego uruchamiania LLM. Jak wyjaśnia Bala Priya C Nuggetsy KD„Dzięki Ollamie wszystko, czego potrzebujesz do uruchomienia LLM – wagi modeli i cała konfiguracja – jest spakowane w jednym pliku modelu. Pomyśl o Dockerze dla LLM.” Modele są dostępne na platformach takich jak Przytulanie Twarzy, GitHub, Watsonx.aiI Sztuczna inteligencja Red Hat Enterprise Linux (RHEL)..

IBM przewiduje, że programiści oprócz pisania kodu za pomocą narzędzi Granite LLM zaoszczędzą czas i energię, wykorzystując te narzędzia LLM do tworzenia testów oraz znajdowania i naprawiania błędów. „Wiele codziennych, ale niezbędnych zadań, które stanowią część dnia programisty – od generowania testów jednostkowych po pisanie dokumentacji lub przeprowadzanie testów podatności – można zautomatyzować za pomocą tych modeli.

Również: AI21 i Databricks pokazują, że open source może radykalnie odchudzić sztuczną inteligencję

Oprócz pomagania programistom IBM widzi korzyści biznesowe w modelach Granite, ponieważ w przeciwieństwie do wielu innych modeli ich licencjonowanie jest jasne, podobnie jak sposób uczenia modeli. Ponadto dane zostały oczyszczone i przefiltrowane pod kątem nienawiści, nadużyć i wulgarnego języka.

Jeśli więc Twoja firma waha się przed rozważeniem wykorzystania sztucznej inteligencji do tworzenia programów ze względów prawnych, IBM właśnie udostępnił Ci narzędzia typu open source, których będziesz potrzebować, aby usprawnić pracę nad tworzeniem oprogramowania. Daj im szansę. Niektórzy z Was zbudują wspaniałe rzeczy z tych granitowych bloków.



źródło