jeden w seria wpisów w wątku Dziś po południu szef Instagrama Adam Mosseri twierdzi, że użytkownicy nie powinni ufać obrazom, które widzą w Internecie, ponieważ sztuczna inteligencja „wyraźnie tworzy” treści, które można łatwo pomylić z rzeczywistością. Z tego powodu jego zdaniem użytkownicy powinni rozważyć źródło, a platformy społecznościowe powinny w tym pomóc.
„Nasza rola jako platform internetowych polega na jak najlepszym oznaczaniu treści generowanych przez sztuczną inteligencję” – pisze Mosseri, ale przyznaje, że te etykiety pominą „niektóre treści”. Z tego powodu platformy muszą także „zapewniać kontekst dotyczący tego, kto udostępnia treści”, aby użytkownicy mogli zdecydować, jak bardzo ufają ich treściom.
Tak jak dobrze jest pamiętać, że chatboty bez wątpienia okłamują Cię, zanim zaufasz wyszukiwarce opartej na sztucznej inteligencji, tak samo sprawdzenie, czy opublikowane roszczenia lub obrazy pochodzą z renomowanego konta, może pomóc Ci ocenić ich prawdziwość. Pomoc może okazać się dostępna. W tej chwili platformy Meta nie oferują takiego kontekstu, o jakim pisał dzisiaj Mosseri, chociaż firma ostatnio wspomniała o poważnych zmianach w zasadach dotyczących zawartości.
To, co opisuje Mosseri, brzmi bliższe moderacji prowadzonej przez użytkownika, takiej jak X i notatki społeczności na YouTube lub niestandardowe filtry moderacji Bluesky. Nie wiadomo, czy Meta planuje wprowadzić coś takiego, ale z drugiej strony wiadomo, że bierze stronę z książki Bluesky’ego.