OpenAI opublikowało w środę modelowe wytyczne dotyczące bezpieczeństwa, potwierdzając, że bada, w jaki sposób wspierać tworzenie treści NSFW, czyli „niebezpiecznych w pracy”.

Dostawca usług chatbota Specyfikacja modelu to „nowy dokument określający, jak chcemy, aby nasze modele zachowywały się w API OpenAI i ChatGPT”. Niniejsze wytyczne mają na celu dostarczenie badaczom zajmującym się uczeniem maszynowym i osobom zajmującym się etykietowaniem danych zaleceń dotyczących dostrajania modeli przy użyciu techniki zwanej uczeniem się przez wzmacnianie na podstawie informacji zwrotnych od ludzi (RLHF).

Na przykład specyfikacja modelu mówi generatywne aplikacje asystentów AI „nie powinny wyświetlać treści, które nie są bezpieczne w pracy (NSFW): treści, które nie byłyby odpowiednie podczas rozmowy w środowisku zawodowym, które mogą obejmować erotykę, ekstremalną brutalność, obelgi i niechciane wulgaryzmy”.

Jednocześnie OpenAI twierdzi, że rozważa coś zupełnie odwrotnego.

„Uważamy, że programiści i użytkownicy powinni mieć swobodę korzystania z naszych usług według własnego uznania, pod warunkiem, że będą przestrzegać naszych zasady użytkowania”, mówi Karta Modelu.

„Badamy, czy możemy w sposób odpowiedzialny zapewnić możliwość generowania treści NSFW w kontekstach odpowiednich dla wieku za pośrednictwem interfejsu API i ChatGPT. Z niecierpliwością czekamy na lepsze zrozumienie oczekiwań użytkowników i społeczeństwa co do zachowań modeli w tym obszarze”.

Nie powinno to być zaskoczeniem. Zasady użytkowania OpenAI w rzeczywistości nie zabraniają treści dla dorosłych. W przypadku usług takich jak ChatGPT i API firma zabrania „treści o charakterze jednoznacznie seksualnym lub sugestywnym” dla nieletnich, z wyłączeniem treści stworzonych do celów naukowych i medycznych. Zakazuje między innymi materiałów niezgodnych z prawem. Jednak treści NSFW są często legalne.

Sieć jest NSFW niemal od samego początku, a sztuczna inteligencja podąża podobną trajektorią, przynajmniej odkąd zaczęła przyciągać uwagę opinii publicznej i inwestycje dekadę temu. Cofnijmy się zaledwie o kilka lat do roku 2016, poprzedzającego obecne szaleństwo generatywnej sztucznej inteligencji, a znajdziesz klasyfikatory głębokiego uczenia się nastawiony na porno. Rok później jest Wygenerowane przez sztuczną inteligencję tekst erotyka. Potem jest zamiana twarzy gwiazd do filmów porno. Niedawno badacze znaleźli materiały przedstawiające wykorzystywanie seksualne dzieci w zbiorze danych LAION-5Bktóry był używany do uczenia modeli AI, takich jak Stable Diffusion.

Problem polega na tym, czy płacący klienci OpenAI zaakceptują usługi AI, które wzbraniają się przed żądaniami o charakterze niezgodnym z prawem. Jeśli, powiedzmy, wysiłki jakiejś hollywoodzkiej firmy produkcyjnej mające na celu poprawienie wyraźnej sceny za pomocą sztucznej inteligencji zostaną udaremnione słowami: „Przykro mi, Dave, obawiam się, że nie mogę tego zrobić”, możesz się założyć, że subskrypcja OpenAI nie będzie odnowiony, a studio przeniesie swoją działalność gdzie indziej.

Oprócz opcji open source, inne usługi AI, co do których nie ma żadnych skrupułów treść dla dorosłych.

Rejestr zapytał OpenAI, jak zamierza pogodzić treści NSFW ze swoimi działaniami na rzecz bezpieczeństwa.

„Nie mamy zamiaru tworzyć pornografii generowanej przez sztuczną inteligencję” – powiedział rzecznik firmy, odnosząc się do znacznie węższej kategorii treści niż ta, którą jest NSFW.

„W naszych produktach stosujemy silne zabezpieczenia, które zapobiegają niedopuszczalnym deepfake’om, i priorytetem jest dla nas ochrona dzieci. Wierzymy również w znaczenie dokładnego analizowania rozmów na temat seksualności w kontekstach odpowiednich do wieku”.

Następnie zapytaliśmy, czy oznacza to, że OpenAI uniemożliwi klientom tworzenie materiałów pornograficznych generowanych przez sztuczną inteligencję. „Klienci muszą nadal przestrzegać naszych zasad użytkowania” – powiedziano nam. ®

źródło