Dołącz do naszych codziennych i cotygodniowych biuletynów, aby otrzymywać najnowsze aktualizacje i ekskluzywne treści na temat wiodącego w branży zakresu sztucznej inteligencji. dowiedz się więcej


Ojej, jak szybko sytuacja się odwraca w świecie technologii. Zaledwie dwa lata temu sztuczną inteligencję okrzyknięto „kolejną technologią transformacyjną, która będzie rządzić nimi wszystkimi”. Teraz zamiast osiągnąć poziom Skynetu i przejąć władzę nad światem, sztuczna inteligencja, jak na ironię, nadużywa.

Sztuczna inteligencja, niegdyś zwiastun nowej ery inteligencji, obecnie majstruje przy własnym kodzie, starając się dorównać obiecanej doskonałości. Ale dlaczego? Prosty fakt jest taki, że pragniemy sztucznej inteligencji z powodu jednej rzeczy, która czyni ją naprawdę inteligentną: danych generowanych przez ludzi.

Aby nakarmić te żądne danych modele, badacze i organizacje coraz częściej sięgają po dane syntetyczne. Chociaż praktyka ta od dawna jest widoczna w rozwoju sztucznej inteligencji, obecnie wkraczamy na niebezpieczne terytorium, nadmiernie na niej polegając, co prowadzi do stopniowej degradacji modeli sztucznej inteligencji. I nie jest to tylko drobna obawa, że ​​ChatGPT daje wyniki poniżej standardów – wyniki są znacznie bardziej niebezpieczne.

Kiedy modele AI są szkolone na wynikach wygenerowanych w poprzednich iteracjach, propagują błędy i generują szum, co prowadzi do pogorszenia jakości wyników. Ten rekurencyjny proces zamienia znany cykl „śmieci na wejściu, śmieci na zewnątrz” w samonapędzający się problem, znacznie zmniejszający efektywność systemu. W miarę jak sztuczna inteligencja odchodzi od ludzkiego zrozumienia i dokładności, nie tylko pogarsza się wydajność, ale także budzi poważne obawy co do długoterminowej wykonalności polegania na samodzielnie wygenerowanych danych w celu dalszego rozwoju sztucznej inteligencji.

Ale nie chodzi tylko o upadek technologii; Stanowi to degradację rzeczywistości, tożsamości i autentyczności danych – stwarzając poważne ryzyko dla ludzkości i społeczeństwa. Efekt domina może być głęboki i prowadzić do wzrostu liczby poważnych błędów. Ponieważ modele te tracą dokładność i niezawodność, konsekwencje mogą być poważne – na przykład błędna diagnoza lekarska, straty finansowe, a nawet wypadki zagrażające życiu.

Inną ważną konsekwencją jest to, że rozwój sztucznej inteligencji może zostać całkowicie zatrzymany, przez co systemy sztucznej inteligencji nie będą w stanie wchłonąć nowych danych i zasadniczo „utkwią w czasie”. Ta stagnacja nie tylko utrudni postęp, ale także uwięzi sztuczną inteligencję w cyklu malejących zysków, co będzie miało potencjalnie niszczycielski wpływ na technologię i społeczeństwo.

Jednak, co praktycznie mogą zrobić przedsiębiorstwa, aby zapewnić bezpieczeństwo swoim klientom i użytkownikom? Zanim odpowiemy na to pytanie, musimy zrozumieć, jak to wszystko działa.

Kiedy model upada, traci wiarygodność

Im więcej treści generowanych przez sztuczną inteligencję rozprzestrzenia się w Internecie, tym szybciej infiltruje zbiory danych, a następnie same modele. Dzieje się to w przyspieszonym tempie, co utrudnia programistom odfiltrowanie wszystkiego, co nie jest czystymi danymi szkoleniowymi wygenerowanymi przez człowieka. Faktem jest, że użycie materiałów syntetycznych w szkoleniu może wywołać szkodliwe zjawisko zwane „załamaniem modelu” lub „załamaniem modelu”.Modelowe zaburzenia autofagii (zwariowany).”

Załamanie się modelu to proces degeneracyjny, podczas którego systemy sztucznej inteligencji stopniowo tracą kontrolę nad faktyczną dystrybucją danych, którą mają modelować. Dzieje się tak często, gdy sztuczna inteligencja jest szkolona iteracyjnie na podstawie generowanych przez siebie treści, co powoduje szereg problemów:

  • utrata precyzji: Modele zaczynają zapominać dane zewnętrzne lub niedostatecznie reprezentowane, co jest ważne dla pełnego zrozumienia dowolnego zbioru danych.
  • brak różnorodności: Nastąpiło znaczne zmniejszenie różnorodności i jakości wyników wytwarzanych przez modele.
  • wzmocnienie uprzedzeń: Istniejące uprzedzenia, szczególnie wobec grup marginalizowanych, mogą się zaostrzyć, ponieważ model ignoruje szczegółowe dane, które mogą leżeć u podstaw tych uprzedzeń.
  • generowanie nadmiarowego sygnału wyjściowego: Z biegiem czasu modele mogą zacząć generować wyniki, które są całkowicie niepowiązane lub pozbawione znaczenia.

Przykład: badanie opublikowane w Natura Podkreślono szybką degradację modeli językowych trenowanych rekurencyjnie na tekście wygenerowanym przez sztuczną inteligencję. W dziewiątej iteracji stwierdzono, że modele te generują całkowicie nieistotną i zbędną treść, co wskazuje na szybki spadek jakości danych i użyteczności modelu.

Zabezpieczanie przyszłości sztucznej inteligencji: kroki, jakie przedsiębiorstwa mogą podjąć już dziś

Organizacje korporacyjne mają wyjątkową możliwość odpowiedzialnego kształtowania przyszłości sztucznej inteligencji i istnieją jasne, wykonalne kroki, które mogą podjąć, aby zapewnić dokładność i niezawodność systemów sztucznej inteligencji:

  • Zainwestuj w narzędzia do sprawdzania pochodzenia danych: Narzędzia śledzące, skąd pochodzi każda część danych i jak zmieniają się w czasie, dają firmom pewność co do danych wejściowych AI. Dzięki jasnemu wglądowi w pochodzenie danych organizacje mogą uniknąć podawania modeli niewiarygodnych lub stronniczych informacji.
  • Wdrażaj filtry oparte na sztucznej inteligencji, aby wykrywać treści syntetyczne: Zaawansowane filtry mogą wychwytywać treści generowane przez sztuczną inteligencję lub treści o niskiej jakości, zanim trafią one do zbioru danych szkoleniowych. Filtry te pomagają zapewnić, że modele uczą się na autentycznych informacjach generowanych przez człowieka, a nie na syntetycznych danych, którym brakuje złożoności prawdziwego świata.
  • Współpracuj z zaufanymi dostawcami danych: Silne relacje ze sprawdzonymi dostawcami danych zapewniają organizacjom stały dopływ autentycznych danych wysokiej jakości. Oznacza to, że modele sztucznej inteligencji uzyskują prawdziwe, szczegółowe informacje, które odzwierciedlają rzeczywiste scenariusze, zwiększając zarówno wydajność, jak i przydatność.
  • Promowanie umiejętności i świadomości cyfrowej: Edukując zespoły i klientów na temat znaczenia autentyczności danych, organizacje mogą pomóc ludziom rozpoznać treści generowane przez sztuczną inteligencję i zrozumieć ryzyko związane z danymi syntetycznymi. Tworzenie świadomości na temat odpowiedzialnego wykorzystania danych sprzyja kulturze ceniącej dokładność i uczciwość w rozwoju sztucznej inteligencji.

Przyszłość sztucznej inteligencji zależy od odpowiedzialnych działań. Przedsiębiorstwa mają realną szansę na ugruntowanie sztucznej inteligencji pod kątem dokładności i integralności. Wybierając prawdziwe dane pochodzące od człowieka zamiast na skróty, nadając priorytet narzędziom wychwytującym i filtrującym treści o niskiej jakości oraz zachęcając do zwiększania świadomości na temat autentyczności cyfrowej, organizacje mogą skierować sztuczną inteligencję na bezpieczną i inteligentną ścieżkę. Skoncentrujmy się na budowaniu przyszłości, w której sztuczna inteligencja będzie potężna i naprawdę korzystna dla społeczeństwa.

Rick Song jest dyrektorem generalnym i współzałożycielem Osoba,

decydenci zajmujący się danymi

Witamy w społeczności VentureBeat!

DataDecisionMakers to miejsce, w którym eksperci, w tym osoby techniczne pracujące nad danymi, mogą dzielić się spostrzeżeniami i innowacjami związanymi z danymi.

Jeśli chcesz przeczytać o nowatorskich pomysłach i najnowszych informacjach, najlepszych praktykach oraz przyszłości danych i technologii danych, dołącz do nas na DataDecisionMakers.

Możesz także rozważyć napisanie własnego artykułu!

Przeczytaj więcej od DataDecisionmakers


Source link