Demo nauczyciela iPada AI wskazuje na niesamowity nowy świat dla uczniów

Jeśli jeszcze tego nie zrobiłeś Obejrzane przeszłość OpenAI wydarzenie, gorąco polecam to zrobić. Najważniejszą wiadomością było to, że najnowszy model GPT-4o bezproblemowo współpracuje z dowolną kombinacją tekstu, dźwięku i wideo.

Obejmuje to możliwość „pokazania” aplikacji GPT-4o nagrania ekranu wykonanego w innej aplikacji – i tę właśnie funkcję firma zaprezentowała w dość szalonym iPada sztuczna inteligencja demonstracja nauczyciela…

GPT-4o

OpenAI stwierdziło, że „o” oznacza „omni”.

GPT-4o („o” od „omni”) to krok w kierunku znacznie bardziej naturalnej interakcji człowiek-komputer — akceptuje jako dane wejściowe dowolną kombinację tekstu, dźwięku i obrazu oraz generuje dowolną kombinację tekstu, dźwięku i obrazu.

Może reagować na sygnały audio w ciągu zaledwie 232 milisekund, średnio 320 milisekund, co jest podobne do czasu reakcji człowieka (otwiera się w nowym oknie) podczas rozmowy (…) GPT-4o jest szczególnie lepszy pod względem obrazu i dźwięku zrozumienia w porównaniu z istniejącymi modelami.

Nawet aspekt głosowy jest tutaj wielką sprawą. Wcześniej ChatGPT akceptował wprowadzanie głosowe, ale przed rozpoczęciem pracy z nim konwertował je na tekst. GPT-4o natomiast faktycznie rozumie mowę, więc całkowicie pomija etap konwersji.

Jak zauważyliśmy wczorajBezpłatni użytkownicy otrzymują również wiele funkcji, które wcześniej były dostępne tylko dla płatnych subskrybentów.

Demo nauczyciela iPada AI

Jedną z możliwości zademonstrowanych przez OpenAI była zdolność GPT-4o do obserwowania tego, co robisz na ekranie iPada (w trybie podzielonego ekranu).

Przykład pokazuje, jak sztuczna inteligencja udziela korepetycji uczniowi mającemu problem z matematyką. Słychać, że początkowo GPT-4o rozumiał problem i chciał go natychmiast rozwiązać. Ale nowy model można przerwać i w tym przypadku poproszono ucznia, aby pomógł uczniowi samodzielnie go rozwiązać.

Inną widoczną tutaj funkcją jest to, że model twierdzi, że wykrywa emocje w mowie, a także może sam je wyrażać. Jak na mój gust, w wersji demonstracyjnej było to raczej przesadzone i znajduje to odzwierciedlenie tutaj – sztuczna inteligencja jest może nieco protekcjonalna. Ale to wszystko można dostroić.

W efekcie każdy uczeń na świecie mógłby mieć prywatnego nauczyciela posiadającego takie możliwości.

Ile z tego włączy Apple?

Wiemy, że głównym celem iOS 18 jest sztuczna inteligencja i rzeczywiście tak jest finalizowanie umowy na wprowadzenie funkcji OpenAI do urządzeń Apple. Chociaż w tamtym czasie opisywano to jako przeznaczone dla ChatGPT, obecnie wydaje się całkiem prawdopodobne, że faktyczna umowa dotyczy dostępu do GPT-4o.

Ale wiemy też, że Apple tak było pracuje nad własnymi modelami AIz własne centra danych obsługujące własne chipy. Na przykład Apple pracował nad swoim własny sposób na pozwól Siri rozumieć ekrany aplikacji.

Nie wiemy więc dokładnie, jakie możliwości GPT-4o firma wprowadzi do swoich urządzeń, ale ten wydaje się tak doskonały od Apple, że muszę wierzyć, że zostanie uwzględniony. To naprawdę wykorzystuje technologię, aby wzmacniać ludzi.

Obraz: OpenAI. Benjamina Mayo przyczynił się do powstania tego raportu.

FTC: Korzystamy z automatycznych linków partnerskich generujących dochód. Więcej.



źródło