Dołącz do naszych codziennych i cotygodniowych biuletynów, aby otrzymywać najnowsze aktualizacje i ekskluzywne treści na temat wiodącego w branży zakresu sztucznej inteligencji. dowiedz się więcej


Era logicznej sztucznej inteligencji już trwa.

OpenAI po raz kolejny zapoczątkowało rewolucję w sztucznej inteligencji swoim modelem wnioskowania O1, wprowadzonym we wrześniu 2024 r. – udzielanie odpowiedzi na pytania zajmuje więcej czasu, ale zapewnia wyższą wydajność, szczególnie w matematyce i naukach ścisłych. O złożonych, wieloetapowych problemach – Komercyjna sztuczna inteligencja pole jest pełne naśladowców i konkurentów.

Istnieją rozwiązania DeepSeek R1, Google Gemini 2 Flash Thinking, a dziś Lamawi-O1, a wszystkie mają na celu zapewnienie tej samej podstawowej „logiki” dla nowych rodzin modeli O1 i nadchodzących O3 OpenAI. Te modele są w załączeniu Podpowiadanie „łańcucha myśli” (COT). – lub „samopodpowiadające” – zmuszając ich do przemyślenia analizy w połowie, powrotu do niej ponownie, sprawdzenia własnej pracy i ostatecznie uzyskania lepszej odpowiedzi niż samodzielne wymyślanie jej. osadzanie Tak szybko, jak to możliwe, tak jak robią to inne duże modele językowe (LLM).

Jeszcze wyższy koszt O1 i O1-mini (token wejściowy 15,00 USD/1 mln w porównaniu z tokenem wejściowym 1,25 USD/1 mln dla GPT-4o) API OpenAI) odwróciło niektórych ludzi od oczekiwanego wzrostu wydajności. Czy naprawdę warto zapłacić 12 razy więcej niż zwykły, nowoczesny LLM?

Jak się okazuje, liczba konwersji rośnie – ale kluczem do odblokowania prawdziwej wartości modeli logicznych może być skłonienie użytkownika do innego motywowania.

Shawn Wang (założyciel serwisu informacyjnego AI żywica) na nim namalowany podstos Post gościnny autorstwa Bena Hillacka, dawniej Apple Inc., projektanta interfejsu dla systemu VisionOS (który obsługuje zestaw słuchawkowy do obliczeń przestrzennych Vision Pro) z weekendu. Post stał się wirusowy, ponieważ jasno wyjaśnia, w jaki sposób Hillac wykorzystuje modele O1 OpenAI, aby uzyskać (dla niego) niezwykle cenne wyniki.

Krótko mówiąc, zamiast pisać podpowiedzi dotyczące modelu O1 do użytkownika, powinien on pomyśleć o napisaniu „krótkiego” lub bardziej szczegółowego wyjaśnienia zawierającego duży kontekst dotyczący tego, czego użytkownik oczekuje od modelu i kim jest. Oraz w jakim formacie chcą, aby model wysyłał im informacje.

Tak jak pisze Hilak podstos,

W przypadku większości modeli zostaliśmy przeszkoleni, aby powiedzieć modelowi, w jaki sposób chcemy, aby nam odpowiedział. Na przykład: „Jesteś ekspertem w dziedzinie oprogramowania”. myśl powoli i uważnie,

Jest to przeciwieństwo tego, jak odniosłem sukces z o1. Nie podaję instrukcji jak, tylko na czym. Następnie pozwól O1 przejąć kontrolę, zaplanować ruchy i zaproponować rozwiązania. Właśnie do tego służy logika autonomiczna i może być znacznie szybsza, jeśli ręcznie przeglądasz i rozmawiasz jako „człowiek na bieżąco”.

Hilac zawiera także świetny zrzut ekranu z komentarzami przedstawiający przykładową zachętę dla O1, która dała przydatne wyniki w przypadku listy wędrówek:

Ten post na blogu był tak przydatny, że prezes i współzałożyciel OpenAI Greg Brockman udostępnił go ponownie na swoim koncie X Wiadomość: „O1 to inny rodzaj modelu. Świetna wydajność wymaga wykorzystania go w nowy sposób w stosunku do standardowego modelu czatu.

Sam tego próbowałem, wciąż próbując nauczyć się płynnie mówić po hiszpańsku oto rezultatDla ciekawskich. Być może nie tak imponująca jak dobrze zbudowana szybkość i reakcja Haylocka, ale z pewnością wykazująca duży potencjał.

Osobno, nawet jeśli chodzi o nieracjonalne LLM, takie jak Claude 3.5 Sonnet, zwykli użytkownicy mogą mieć możliwość poprawy swojej motywacji w celu osiągnięcia lepszych, mniej ograniczonych wyników.

Jak mówi Lewis Arge, były inżynier Teton.ai i obecny twórca urządzenia do neuromodulacji openFUS: napisane na x„Jedną ze sztuczek, którą odkryłem, jest to, że LLM bardziej ufa swoim własnym sygnałom niż moim sygnałom” i podał przykład tego, jak próbował przekonać Claude’a, aby był „mniej tchórzliwy”, „rozpoczynając z nim walkę” wcześniej. na jego wyjściu.

Wszystko to pokazuje, że wraz z postępem ery sztucznej inteligencji szybka inżynieria pozostaje cenną umiejętnością.


Source link