Dołącz do naszych codziennych i cotygodniowych biuletynów, aby otrzymywać najnowsze aktualizacje i ekskluzywne treści na temat wiodącego w branży zakresu sztucznej inteligencji. dowiedz się więcej
W wyścigu o zrozumienie sztucznej inteligencji i zaangażowanie się w nią wpadliśmy w kuszącą pułapkę: przypisywanie ludzkich cech tym solidnym, ale zasadniczo nieludzkim systemom. Ta antropomorfizacja sztucznej inteligencji to nie tylko nieszkodliwy wybryk ludzkiej natury – staje się coraz bardziej niebezpiecznym trendem, który może w znaczący sposób zaburzyć naszą ocenę sytuacji. Liderzy biznesowi porównują uczenie się sztucznej inteligencji z uczeniem się ludzi, aby uzasadnić praktyki szkoleniowe z ustawodawcami tworzącymi polityki w oparciu o błędne analogie człowiek-sztuczna inteligencja. Ta tendencja do antropomorfizacji sztucznej inteligencji może niewłaściwie kształtować ważne decyzje w różnych branżach i ramach regulacyjnych.
Patrzenie na sztuczną inteligencję w biznesie przez pryzmat człowieka prowadzi firmy do przeceniania możliwości sztucznej inteligencji lub niedoceniania potrzeby nadzoru ze strony człowieka, co czasami wiąże się z kosztownymi konsekwencjami. Stawka jest szczególnie wysoka w przypadku prawa autorskiego, gdzie myślenie antropomorficzne doprowadziło do problematycznych porównań między uczeniem się ludzi a szkoleniem AI.
sieć języka
Posłuchaj, jak mówimy o sztucznej inteligencji: Mówimy, że „uczy się”, „myśli”, „rozumie”, a nawet „tworzy”. Te ludzkie słowa brzmią naturalnie, ale wprowadzają w błąd. Kiedy mówimy, że model sztucznej inteligencji „uczy się”, nie zyskuje zrozumienia jak ludzki uczeń. Zamiast tego przeprowadza złożoną analizę statystyczną na dużych ilościach danych, dostosowując wagi i parametry w swojej sieci neuronowej w oparciu o zasady matematyczne. Nie ma zrozumienia, chwili eureki, iskry kreatywności ani prawdziwego zrozumienia – jest po prostu coraz bardziej wyrafinowane dopasowywanie wzorców.
Ta sztuczka językowa to coś więcej niż tylko semantyka. Jak wspomniano w artykule, Mylący przypadek generatywnej sztucznej inteligencji dotyczący dozwolonego użytku: „Użycie języka antropomorficznego do opisu rozwoju i funkcjonowania modeli sztucznej inteligencji jest zniekształcone, ponieważ sugeruje, że raz wyszkolony model działa niezależnie od treści zadań, na których się szkolił.” To zamieszanie ma realne konsekwencje, przede wszystkim wtedy, gdy wpływa na decyzje prawne i polityczne.
dysonans poznawczy
Być może najniebezpieczniejszym aspektem antropomorficznej sztucznej inteligencji jest to, że ukrywa ona podstawowe różnice między inteligencją człowieka i maszyny. Podczas gdy niektóre systemy sztucznej inteligencji doskonale radzą sobie z określonymi rodzajami rozumowania i zadaniami analitycznymi, duże modele językowe (LLM), które dominują w dzisiejszym dyskursie dotyczącym sztucznej inteligencji – i na których się tutaj skupiamy – działają poprzez zaawansowane rozpoznawanie wzorców.
Systemy te przetwarzają duże ilości danych, identyfikując i ucząc się zależności statystycznych między słowami, frazami, obrazami i innymi danymi wejściowymi, aby przewidzieć, co powinno nastąpić dalej w sekwencji. Kiedy mówimy, że „uczą się”, opisujemy proces optymalizacji matematycznej, który pomaga im dokonywać coraz dokładniejszych przewidywań na podstawie danych szkoleniowych.
Rozważmy ten fascynujący przykład z badań Berglund i jego współpracownicy: Model wytrenowany na materiałach stwierdzający, że „A jest równe B”, często nie potrafi rozumować jak człowiek, aby dojść do wniosku, że „B jest równe A”. Jeśli sztuczna inteligencja dowie się, że Walentyna Tereshkova była pierwszą kobietą w kosmosie, może poprawnie odpowiedzieć „Kim była Walentyna Tereshkova?” Ale konflikt brzmi: „Kim była pierwsza kobieta w kosmosie?” To ograniczenie ujawnia zasadniczą różnicę między rozpoznawaniem wzorców a prawdziwym rozumowaniem – między przewidywaniem możliwych sekwencji słów a zrozumieniem ich znaczenia.
zagadka praw autorskich
To antropomorficzne nastawienie ma szczególnie niepokojący wpływ na toczącą się debatę na temat sztucznej inteligencji i praw autorskich. Dyrektor generalny Microsoftu Satya Nadella Porównanie ostatnich szkoleń AI W odniesieniu do ludzkiego uczenia się sugeruje, że jeśli ludzie mogą uczyć się z książek bez wpływu na prawa autorskie, sztuczna inteligencja powinna być w stanie zrobić to samo. Porównanie to doskonale ilustruje niebezpieczeństwo myślenia antropomorficznego w dyskusjach na temat etycznej i odpowiedzialnej sztucznej inteligencji.
Niektórzy twierdzą, że należy zmodyfikować tę analogię, aby zrozumieć uczenie się ludzi i szkolenie AI. Kiedy ludzie czytają książki, nie robimy ich kopii – rozumiemy i przyswajamy pojęcia. Z drugiej strony systemy sztucznej inteligencji muszą tworzyć fizyczne kopie dzieł – często uzyskiwane bez pozwolenia lub zapłaty – kodować je w swoich architekturach i utrzymywać te zakodowane wersje, aby mogły działać. Funkcje nie znikają po „nauce”, jak często twierdzą firmy AI; pozostają ukryte sieci neuronowe systemów,
biznesowy martwy punkt
Antropomorficzna sztuczna inteligencja stwarza niebezpieczne martwe punkty w procesie podejmowania decyzji biznesowych, wykraczające poza zwykłe nieefektywności operacyjne. Kiedy kadra kierownicza i decydenci postrzegają sztuczną inteligencję jako „kreatywną” lub „inteligentną” w ludzkim ujęciu, może to prowadzić do ryzykownych założeń i potencjalnych zobowiązań prawnych.
Nadanie większego znaczenia możliwościom sztucznej inteligencji
Jednym z ważnych obszarów, w którym antropomorfizacja stwarza ryzyko, jest tworzenie treści i przestrzeganie praw autorskich. Kiedy firmy zakładają, że sztuczna inteligencja jest zdolna do „uczenia się” jak ludzie, mogą błędnie założyć, że treści generowane przez sztuczną inteligencję są automatycznie wolne od problemów związanych z prawami autorskimi. To błędne przekonanie może prowadzić firmy do:
- Wdrażaj systemy sztucznej inteligencji, które w sposób niezamierzony odtwarzają materiały chronione prawem autorskim, narażając firmy na roszczenia o naruszenie
- Nie udało się wdrożyć odpowiednich mechanizmów filtrowania i kontroli treści
- Błędne założenie, że sztuczna inteligencja potrafi niezawodnie odróżnić treści należące do domeny publicznej od treści chronionych prawem autorskim
- Nie doceniaj potrzeby kontroli człowieka w procesach tworzenia treści
Zgodność transgraniczna. Martwy punkt
Antropomorficzne uprzedzenia w sztucznej inteligencji stwarzają zagrożenia, jeśli weźmiemy pod uwagę zgodność transgraniczną. Jak wyjaśnili Daniel Gervais, Haralambos Marmanis, Noam Shemtov i Catherine Zaller Rolland „Kluczowe punkty: prawa autorskie, szkolenie w zakresie sztucznej inteligencji i LLM,Prawo autorskie opiera się na ścisłych zasadach regionalnych, a każda jurysdykcja ma własne zasady dotyczące tego, co stanowi naruszenie i jakie mają zastosowanie wyjątki.
Ten regionalny charakter prawa autorskiego tworzy złożoną sieć potencjalnej odpowiedzialności. Firmy mogą błędnie wierzyć, że ich systemy sztucznej inteligencji mogą niezależnie „uczyć się” na materiałach chronionych prawem autorskim w różnych jurysdykcjach, nie zdając sobie sprawy, że działalność w zakresie szkoleń prawnych w jednym kraju może prowadzić do naruszeń w innym. UE wyraźnie uwzględniła to ryzyko w swojej ustawie o sztucznej inteligencji Rozdział 106Wymaga to, aby wszelkie modele sztucznej inteligencji ogólnego przeznaczenia wprowadzone w UE były zgodne z unijnym prawem autorskim w odniesieniu do danych szkoleniowych, niezależnie od tego, gdzie odbyło się to szkolenie.
Ma to znaczenie, ponieważ antropomorfizacja możliwości sztucznej inteligencji może prowadzić przedsiębiorstwa do niedoceniania lub błędnego zrozumienia swoich zobowiązań prawnych transgranicznych. Pocieszająca fantazja o tym, że sztuczna inteligencja „uczy się” jak ludzie, przesłania rzeczywistość, w której szkolenie w zakresie sztucznej inteligencji obejmuje złożone operacje kopiowania i przechowywania, które pociągają za sobą różne zobowiązania prawne w innych jurysdykcjach. To zasadnicze niezrozumienie faktycznego funkcjonowania sztucznej inteligencji, w połączeniu z regionalnym charakterem prawa autorskiego, stwarza znaczne ryzyko dla przedsiębiorstw działających globalnie.
koszt ludzki
Jednym z najbardziej niepokojących kosztów jest emocjonalny wpływ antropomorficznej sztucznej inteligencji. Widzimy coraz więcej przykładów osób tworzących emocjonalne więzi z chatbotami AI i uważających je za przyjaciół lub powierników. Może to być szczególnie niebezpieczne dla bezbronnych osób Kto może udostępniać dane osobowe lub polegać na sztucznej inteligencji w zakresie wsparcia emocjonalnego, którego ona nie jest w stanie zapewnić. Reakcje sztucznej inteligencji, choć pozornie empatyczne, odpowiadają wyrafinowanym wzorcom opartym na danych treningowych – nie ma w nich prawdziwego zrozumienia ani połączenia emocjonalnego.
Ta wrażliwość emocjonalna może również objawiać się w środowisku zawodowym. W miarę coraz większego włączania narzędzi sztucznej inteligencji do codziennej pracy pracownicy mogą zyskać nadmierne zaufanie do tych systemów, traktując ich raczej jak prawdziwych współpracowników, a nie narzędzia. Mogą zbyt swobodnie dzielić się poufnymi informacjami służbowymi lub wahać się przed zgłaszaniem błędów z powodu źle umiejscowionego poczucia lojalności. Chociaż scenariusze te są nadal odosobnione, podkreślają, jak antropomorfizacja sztucznej inteligencji w miejscu pracy może zaburzyć ocenę sytuacji i stworzyć niezdrowe uzależnienie od systemów, które pomimo wyrafinowanych reakcji nie są w stanie ich zrozumieć lub nie są w stanie się nimi przejmować.
wolny od antropomorficznej pułapki
Jak więc postępować? Po pierwsze, musimy być bardziej precyzyjni w naszym języku na temat sztucznej inteligencji. Zamiast mówić, że sztuczna inteligencja „uczy się” lub „rozumie”, możemy powiedzieć, że „przetwarza dane” lub „generuje wyniki w oparciu o wzorce zawarte w danych szkoleniowych”. To nie jest tylko pedantyczne – pomaga wyjaśnić, co robią te systemy.
Po drugie, powinniśmy oceniać systemy sztucznej inteligencji na podstawie tego, czym są, a nie tego, co o nich myślimy. Oznacza to uznanie zarówno ich imponujących możliwości, jak i podstawowych ograniczeń. Sztuczna inteligencja może przetwarzać duże ilości danych i identyfikować wzorce, o których ludzie mogliby zapomnieć, ale nie potrafi rozumieć, rozumować ani konstruować tak jak ludzie.
Wreszcie musimy opracować ramy i zasady, które będą uwzględniać rzeczywiste cechy sztucznej inteligencji, a nie zakładane cechy ludzkie. Jest to szczególnie istotne w prawie autorskim, gdzie myślenie antropomorficzne może prowadzić do błędnych analogii i niewłaściwych wniosków prawnych.
droga naprzód
W miarę jak systemy sztucznej inteligencji będą coraz bardziej wyrafinowane w naśladowaniu działań człowieka, pokusa ich antropomorfizacji będzie coraz silniejsza. To antropomorficzne nastawienie wpływa na wszystko, od tego, jak oceniamy możliwości sztucznej inteligencji po sposób, w jaki oceniamy związane z nią ryzyko. Jak widzieliśmy, wiąże się to z poważnymi wyzwaniami praktycznymi związanymi z prawem autorskim i zgodnością handlową. Kiedy przypisujemy systemy sztucznej inteligencji ludzkie możliwości uczenia się, musimy zrozumieć ich fundamentalny charakter i rzeczywistość technologiczną dotyczącą sposobu, w jaki przetwarzają i przechowują informacje.
Zrozumienie sztucznej inteligencji takiej, jaka ona naprawdę jest – wyrafinowanych systemów przetwarzania informacji, a nie ludzi uczących się – ma kluczowe znaczenie dla wszystkich aspektów zarządzania sztuczną inteligencją i jej wdrażania. Wychodząc poza myślenie antropomorficzne, możemy lepiej sprostać wyzwaniom związanym z systemami sztucznej inteligencji, począwszy od względów etycznych i zagrożeń bezpieczeństwa, po transgraniczne przestrzeganie praw autorskich i zarządzanie danymi szkoleniowymi. To dokładniejsze zrozumienie pomoże przedsiębiorstwom podejmować bardziej świadome decyzje, wspierając lepszy rozwój polityki i dyskusję publiczną na temat sztucznej inteligencji.
Im szybciej zrozumiemy prawdziwą naturę sztucznej inteligencji, tym lepiej będziemy w stanie poradzić sobie z jej głębokimi skutkami społecznymi i praktycznymi wyzwaniami, jakie stwarza dla naszej globalnej gospodarki.
Ronnie Levy jest doradcą ds. licencji i prawnikiem CCC,
decydenci zajmujący się danymi
Witamy w społeczności VentureBeat!
DataDecisionMakers to miejsce, w którym eksperci, w tym osoby techniczne pracujące nad danymi, mogą dzielić się spostrzeżeniami i innowacjami związanymi z danymi.
Jeśli chcesz przeczytać o nowatorskich pomysłach i najnowszych informacjach, najlepszych praktykach oraz przyszłości danych i technologii danych, dołącz do nas na DataDecisionMakers.
Możesz także rozważyć napisanie własnego artykułu!
Przeczytaj więcej od DataDecisionmakers
Source link