Meta w tym tygodniu mierzy się z intensywną krytyką ze strony krytyków, którzy oskarżają giganta mediów społecznościowych o cenzurowanie konserwatywnych poglądów i celowe fałszowanie informacji na temat próba zamachu przeciwko byłemu prezydentowi Donaldowi Trumpowi.
We wtorek firma publicznie odniosła się do dwóch przypadków, które spotkały się z powszechnym potępieniem, i szczegółowo opisała działania Meta mające na celu dostosowanie swoich algorytmów w odpowiedzi. Jeden incydent dotyczył zdjęcia Trumpa po próba zamachudo którego wewnętrzne systemy Meta „nieprawidłowo zastosowały etykietę fact-check”, napisała firma we wpisie na blogu. Drugie dotyczyło odpowiedzi Meta AI na temat strzelaniny, która w niektórych przypadkach niesłusznie twierdziła, że incydent w ogóle nie miał miejsca.
„W obu przypadkach nasze systemy działały w celu zachowania wagi i powagi tego wydarzenia” Wpis na blogu Meta, napisany przez Joela Kaplana, wiceprezesa ds. polityki globalnej firmy, brzmi: „I chociaż żadne z nich nie było wynikiem stronniczości, było to niefortunne i rozumiemy, dlaczego mogło to pozostawić u ludzi takie wrażenie. Dlatego nieustannie pracujemy nad ulepszaniem naszych produktów i będziemy nadal szybko rozwiązywać wszelkie problemy, gdy się pojawią”.
Po strzelaninie 13 lipca, która spowodowała Trump ranny, jeden uczestnik wiecu nie żyjei dwóch hospitalizowanych, bot czatowy AI firmy Meta został zaprogramowany tak, aby nie Zdaniem Kaplana, w ogóle nie odpowiada na pytania dotyczące próby zamachu.
Wybitne osobistości, w tym Elon Musk i sam Trump, wykorzystały niedopatrzenie Meta i etykietę „sprawdzanie faktów” przypisaną do zdjęcia, dowody cenzury. Trump nazwał te incydenty „kolejną próbą SFAŁSZOWANIA WYBORÓW!!!”
W poście na blogu Meta Kaplan zaprzeczył, że decyzje zostały podjęte stronniczo. Kaplan powiedział, że jest to „znany problem”, że chatboty takie jak Meta AI mogą być zawodne, gdy są pytane o najnowsze wiadomości lub wydarzenia w czasie rzeczywistym. Meta zaktualizowała swoją odpowiedź AI na ten temat, ale Kaplan przyznał, że „powinniśmy byli zrobić to wcześniej”.
„W niewielkiej liczbie przypadków Meta AI nadal udzielała nieprawidłowych odpowiedzi, w tym czasami twierdziła, że zdarzenie nie miało miejsca — nad czym szybko pracujemy” — napisał Kaplan. „Tego typu odpowiedzi są określane jako halucynacje, co jest problemem branżowym, który widzimy we wszystkich generatywnych systemach AI i stanowi ciągłe wyzwanie dla sposobu, w jaki AI radzi sobie z wydarzeniami w czasie rzeczywistym w przyszłości. Podobnie jak wszystkie generatywne systemy AI, modele mogą zwracać niedokładne lub niewłaściwe wyniki, a my będziemy nadal zajmować się tymi problemami i ulepszać te funkcje w miarę ich rozwoju i gdy więcej osób będzie dzielić się swoimi opiniami”.
Trump, który od dłuższego czasu toczy publiczną wojnę z dyrektorem generalnym Meta, Markiem Zuckerbergiem, groził, uwięzić współzałożyciela Facebooka jeśli zostanie ponownie wybrany, nie był zadowolony z odpowiedzi.
We wtorek, gdy w sieci pojawiła się krytyka wielkich firm technologicznych, Trump zwrócił się do swoich zwolenników na portalu Truth Social, aby „ZDOBYĆ SIĘ NA META I GOOGLE. POWIEDZCIE IM, ŻE JESTEŚMY DLA NICH WSZYSCY MĄDRZY, TYM RAZEM BĘDZIEMY O WIELE TWARDSI”.
Problemy z chatbotem i wynikający z nich chaos w odpowiedziach uwypuklają ciągłe wyzwania, z jakimi borykają się zarówno firmy technologiczne, jak i wyborcy, próbujący poruszać się po opracowywaniu nowych technologii sztucznej inteligencji w trakcie pełnego kontrowersji sezonu wyborów prezydenckich.
Przedstawiciele Meta i kampanii Trumpa nie odpowiedzieli natychmiast na prośbę Business Insider o komentarz.








