Ekspert ds. dezinformacji z Uniwersytetu Stanforda, który w sprawie przed sądem federalnym w Minnesocie został wezwany do złożenia pod przysięgą oświadczenia zawierającego sfabrykowane informacje, oskarżył chatbota ze sztuczną inteligencją.

A bot popełnił więcej błędów, niż te, na które zwracali uwagę powodowie w sprawie, profesor Jeff Hancock napisał do sądu z przeprosinami, zapewniając, że nie miał zamiaru wprowadzać sądu ani żadnych prawników w błąd.

„Szczerze przepraszam za wszelkie zamieszanie, jakie spowodowało” – napisał Hancock.

Prawnicy YouTubera i ustawodawcy stanu Minnesota, którzy wnoszą pozew o uchylenie prawa Minnesoty, w złożonym w zeszłym miesiącu pozwie sądowym oświadczyli, że oświadczenie Hancocka w formie biegłego odwoływało się do badania przeprowadzonego przez autorów Huanga, Zhanga i Wasa, które nie istniało. Uważał, że Hancock podczas sporządzania 12-stronicowego dokumentu korzystał z chatbota i wezwał do odrzucenia wniosku, ponieważ może zawierać więcej nieodkrytych konstrukcji sztucznej inteligencji.

Oto, co się wydarzyło: po tym, jak prawnicy zadzwonili do Hancocka, w swoim oświadczeniu znalazł dwie inne „halucynacje” związane ze sztuczną inteligencją, jak wynika z pozwu złożonego w sądzie rejonowym w Minnesocie.

Profesor, założyciel i dyrektor Stanford Social Media Lab, został wciągnięty w sprawę przez prokuratora generalnego Minnesoty jako biegły sądowy w pozwie złożonym przez stanowego ustawodawcę i satyryka YouTubera. Ustawodawcy i osoby wpływowe z mediów społecznościowych zwracają się do sądu o uznanie prawa stanowego kryminalizującego „głęboko fałszywe” zdjęcia, filmy i dźwięki związane z wyborami i generowane przez sztuczną inteligencję za niezgodne z konstytucją.

Zawikłania prawne Hancocka odzwierciedlają jeden z najczęstszych problemów związanych z generatywną sztuczną inteligencją – technologią, która szturmem podbiła świat od czasu, gdy OpenAI z San Francisco wypuściło bota ChatGPT w listopadzie 2022 r. Chatboty i generatory obrazów oparte na sztucznej inteligencji często generują błędy zwane halucynacjami, które mogą obejmować dezinformację w tekście, a na obrazach absurdy, takie jak sześciopalczaste dłonie.

W swoim złożeniu przeprosin w pozwie do sądu Hancock – który bada wpływ sztucznej inteligencji na dezinformację i zaufanie – szczegółowo opisał, w jaki sposób wykorzystanie ChatGPT przez OpenAI do przedstawiania opinii ekspertów doprowadziło do błędów.

Hancock wyznał, że oprócz oszukańczego badania Huanga, Zhanga i Wanga w swoim ogłoszeniu zamieścił także „nieistniejący artykuł De Keersmaeker & Roets z 2023 r.” oraz czterech „nieprawidłowych” autorów innego badania.

Chcąc wzmocnić swoją wiarygodność „specyfiką” swojej wiedzy specjalistycznej, Hancock stwierdził w pozwie, że napisał „podstawowy artykuł” na temat komunikacji za pośrednictwem sztucznej inteligencji. Hancock napisał: „Obszernie publikowałem, w szczególności na temat dezinformacji, w tym psychologicznej dynamiki dezinformacji, jej wszechobecności oraz potencjalnych rozwiązań i interwencji”.

Hancock napisał w swoim zgłoszeniu, że korzystał z ChatGPT 4.0, aby znaleźć i podsumować artykuły do ​​swojego zgłoszenia, ale błędy prawdopodobnie pojawiły się później, podczas tworzenia dokumentu. Napisał, że wstawił słowo „cytat” do tekstu, który przekazał chatbotowi, aby przypomnieć sobie o konieczności dodania cytatów akademickich do swojej tezy.

„Zatem odpowiedzią GPT-4O było wygenerowanie cytatu, skąd, moim zdaniem, pochodzą te halucynacyjne cytaty” – napisał Hancock, dodając, że według niego chatbot stworzył także czterech niewłaściwych autorów.

Source link