W 2025 r. wykorzystamy sztuczną inteligencję i uczenie maszynowe, aby poczynić rzeczywiste postępy w zrozumieniu komunikacji między zwierzętami, odpowiadając na pytanie, które nurtuje ludzi odkąd istniejemy: „Co zwierzęta mówią sobie nawzajem? Mówisz?” Ostatni Nagroda Colera-Doolittle’aOferowanie nagród pieniężnych w wysokości do pół miliona dolarów naukowcom, którzy „złamią kod”, jest wyrazem pewności, że najnowsze osiągnięcia technologiczne w zakresie uczenia maszynowego i dużych modeli językowych (LLM) sprawiają, że ten cel jest w naszym zasięgu.

Wiele grup badawczych od lat pracuje nad algorytmami pozwalającymi zrozumieć odgłosy zwierząt. Na przykład projekt SETI dekoduje klikające pociągi kaszalotów i pieśni humbaków. Te nowoczesne narzędzia do uczenia maszynowego wymagają bardzo dużych ilości danych, a do tej pory takiej ilości wysokiej jakości i dobrze opisanych danych brakowało.

Rozważ LLM, taki jak ChatGPT, który ma dostępne dane szkoleniowe obejmujące cały tekst dostępny w Internecie. Takie informacje na temat komunikacji zwierząt nie były wcześniej dostępne. To nie jest tak, że korpusy danych ludzkich są znacznie większe niż dane, które posiadamy dla dzikich zwierząt: do szkolenia GPT-3 wykorzystano ponad 500 GB słów, podczas gdy wykorzystano nieco ponad 8000 kodów. Do najnowszej analizy projektu SETI dotyczącej komunikacji (lub wokalizacji) kaszalotów.

Dodatkowo, pracując z ludzkim językiem, już to robimy Wiedzieć Co się mówi? Wiemy również, co stanowi „słowo”, co jest ogromną zaletą w interpretacji komunikacji zwierząt, gdzie naukowcy rzadko wiedzą, czy konkretne wycie wilka oznacza na przykład wycie innego wilka, czy nawet to, co wilki uważają za wycie. W jakiś sposób podobne do „słowa” w ludzkim języku.

Niemniej jednak rok 2025 przyniesie nowe postępy zarówno pod względem ilości danych dotyczących komunikacji zwierząt dostępnych naukowcom, jak i rodzaju i mocy algorytmów sztucznej inteligencji, które można zastosować do tych danych. Zautomatyzowane nagrywanie dźwięków zwierząt stało się w zasięgu ręki każdej grupy badawczej, wraz ze wzrostem popularności tanich urządzeń rejestrujących, takich jak Audiomoth.

Wielkoskalowe zbiory danych są teraz udostępniane online, ponieważ rejestratory można pozostawić w terenie, dzięki czemu odgłosy gibonów lub ptaków w lesie można słyszeć 24 godziny na dobę, 7 dni w tygodniu, przez długi czas. Były chwile, kiedy ręczne zarządzanie tak dużym zbiorem danych było niemożliwe. Teraz nowe algorytmy automatycznego rozpoznawania oparte na splotowych sieciach neuronowych mogą przeglądać tysiące godzin nagrań, wybierać dźwięki zwierząt i grupować je w różne typy zgodnie z ich naturalnymi właściwościami akustycznymi.

Gdy te duże zbiory danych o zwierzętach staną się dostępne, możliwe staną się nowe algorytmy analityczne, takie jak wykorzystanie głębokich sieci neuronowych do znalezienia ukrytej struktury w sekwencjach wokalizacji zwierząt, które odpowiadają znaczącej strukturze w ludzkim języku

Jednak podstawowe pytanie, które pozostaje niejasne, brzmi: co dokładnie mamy zrobić z dźwiękami zwierząt? Niektóre organizacje, takie jak Interspecies.io, dość jasno określiły swój cel, jakim jest „przekształcanie sygnałów jednego gatunku w spójne sygnały dla innego gatunku”. Inaczej mówiąc, do Tłumaczenie Komunikacja zwierząt w języku ludzkim. Jednak większość naukowców zgadza się, że zwierzęta inne niż ludzie nie mają własnego prawdziwego języka – przynajmniej nie w takim sensie, w jakim my, ludzie, mamy język.

Nagroda Caller Dolittle jest nieco bardziej wyrafinowana i szuka sposobu na „komunikowanie się z organizmem lub zrozumienie jego komunikacji”. Tłumaczenie ustne jest celem nieco mniej ambitnym niż tłumaczenie, biorąc pod uwagę możliwość, że zwierzęta mogą w rzeczywistości nie posiadać języka, który można przetłumaczyć. Dziś nie wiemy, ile informacji zwierzęta przekazują sobie między sobą. W 2025 r. ludzkość będzie w stanie przewyższyć nie tylko to, co zwierzęta mówią, ale także nasze rozumienie tego, co faktycznie do siebie mówią.

Source link