Ekspert ds. dezinformacji z Uniwersytetu Stanforda, który w sprawie przed sądem federalnym w Minnesocie został wezwany do złożenia pod przysięgą oświadczenia zawierającego sfabrykowane informacje, oskarżył chatbota ze sztuczną inteligencją.
A bot popełnił więcej błędów, niż te, na które zwracali uwagę powodowie w sprawie, profesor Jeff Hancock napisał do sądu z przeprosinami, zapewniając, że nie miał zamiaru wprowadzać sądu ani żadnych prawników w błąd.
„Szczerze przepraszam za wszelkie zamieszanie, jakie spowodowało” – napisał Hancock.
Prawnicy YouTubera i ustawodawcy stanu Minnesota, którzy wnoszą pozew o uchylenie prawa Minnesoty, w złożonym w zeszłym miesiącu pozwie sądowym oświadczyli, że oświadczenie Hancocka w formie biegłego odwoływało się do badania przeprowadzonego przez autorów Huanga, Zhanga i Wasa, które nie istniało. Uważał, że Hancock podczas sporządzania 12-stronicowego dokumentu korzystał z chatbota i wezwał do odrzucenia wniosku, ponieważ może zawierać więcej nieodkrytych konstrukcji sztucznej inteligencji.
Oto, co się wydarzyło: po tym, jak prawnicy zadzwonili do Hancocka, w swoim oświadczeniu znalazł dwie inne „halucynacje” związane ze sztuczną inteligencją, jak wynika z pozwu złożonego w sądzie rejonowym w Minnesocie.
Profesor, założyciel i dyrektor Stanford Social Media Lab, został wciągnięty w sprawę przez prokuratora generalnego Minnesoty jako biegły sądowy w pozwie złożonym przez stanowego ustawodawcę i satyryka YouTubera. Ustawodawcy i osoby wpływowe z mediów społecznościowych zwracają się do sądu o uznanie prawa stanowego kryminalizującego „głęboko fałszywe” zdjęcia, filmy i dźwięki związane z wyborami i generowane przez sztuczną inteligencję za niezgodne z konstytucją.
Zawikłania prawne Hancocka odzwierciedlają jeden z najczęstszych problemów związanych z generatywną sztuczną inteligencją – technologią, która szturmem podbiła świat od czasu, gdy OpenAI z San Francisco wypuściło bota ChatGPT w listopadzie 2022 r. Chatboty i generatory obrazów oparte na sztucznej inteligencji często generują błędy zwane halucynacjami, które mogą obejmować dezinformację w tekście, a na obrazach absurdy, takie jak sześciopalczaste dłonie.
W swoim złożeniu przeprosin w pozwie do sądu Hancock – który bada wpływ sztucznej inteligencji na dezinformację i zaufanie – szczegółowo opisał, w jaki sposób wykorzystanie ChatGPT przez OpenAI do przedstawiania opinii ekspertów doprowadziło do błędów.
Hancock wyznał, że oprócz oszukańczego badania Huanga, Zhanga i Wanga w swoim ogłoszeniu zamieścił także „nieistniejący artykuł De Keersmaeker & Roets z 2023 r.” oraz czterech „nieprawidłowych” autorów innego badania.
Chcąc wzmocnić swoją wiarygodność „specyfiką” swojej wiedzy specjalistycznej, Hancock stwierdził w pozwie, że napisał „podstawowy artykuł” na temat komunikacji za pośrednictwem sztucznej inteligencji. Hancock napisał: „Obszernie publikowałem, w szczególności na temat dezinformacji, w tym psychologicznej dynamiki dezinformacji, jej wszechobecności oraz potencjalnych rozwiązań i interwencji”.
Hancock napisał w swoim zgłoszeniu, że korzystał z ChatGPT 4.0, aby znaleźć i podsumować artykuły do swojego zgłoszenia, ale błędy prawdopodobnie pojawiły się później, podczas tworzenia dokumentu. Napisał, że wstawił słowo „cytat” do tekstu, który przekazał chatbotowi, aby przypomnieć sobie o konieczności dodania cytatów akademickich do swojej tezy.
„Zatem odpowiedzią GPT-4O było wygenerowanie cytatu, skąd, moim zdaniem, pochodzą te halucynacyjne cytaty” – napisał Hancock, dodając, że według niego chatbot stworzył także czterech niewłaściwych autorów.
Hancock oświadczył pod groźbą kary za krzywoprzysięstwo, że „wskazał materiały akademickie, naukowe i inne, do których odwołują się” w swoim oświadczeniu eksperta, jak stwierdził YouTuber i ustawodawca w swoim zgłoszeniu z 16 listopada.
Zgłoszenie to podważało również wiarygodność Hancocka jako biegłego.
Hancock przeprosił sąd, stwierdzając, że te trzy błędy „nie mają wpływu na żadne dowody naukowe ani opinię przedstawioną w charakterze biegłego”.
Sędzia w tej sprawie wyznaczył rozprawę na 17 grudnia, aby ustalić, czy oświadczenie biegłego Hancocka powinno zostać odrzucone i czy Prokurator Generalny Minnesoty może złożyć poprawioną wersję wniosku.
Stanford, gdzie studenci mogą Zawieszony i skierowany do wykonywania prac społecznych Aby skorzystać z chatbota”należycie zaliczyć zadanie lub egzaminBez zgody trenera Hancock nie odpowiedział od razu na pytania, czy grożą mu środki dyscyplinarne. Hancock nie odpowiedział od razu na podobne pytania.
Hancock nie jest pierwszą osobą, która składa pozwy zawierające bzdury generowane przez sztuczną inteligencję. W ubiegłym roku prawnik Steven A. Schwartz i Peter LoDuca zostali ukarani grzywną w wysokości 5000 dolarów każdy za złożenie pozwu dotyczącego obrażeń ciała, który obejmował fałszywe poprzednie sprawy sądowe wymyślone przez ChatGPT na poparcie ich argumentów.
Schwartz powiedział sędziemu: „Nie rozumiem, że ChatGPT może sfabrykować sprawy”.