Elon Musk opublikował ponownie deepfake Kamali Harris, co może naruszać zasady X

W piątkowy wieczór Elon Musk ponownie opublikował deepfake wideo wiceprezydent Kamali Harris na X — jak donosi „The New York Times”, posunięcie to może naruszać politykę jego własnej platformy dotyczącą mediów syntetycznych i zmanipulowanych.

Film został pierwotnie opublikowany przez użytkownika @MrReaganUSA, który zauważył, że klip jest „parodią” Pierwsza reklama wyborcza Harrisa odkąd został domniemanym kandydatem Partii Demokratycznej w wyborach prezydenckich w 2024 r.

Wygląda na to, że klip został cyfrowo przerobiony w celu dodania nowego głosu, który brzmi jak głos Harrisa.

W filmie zmontowany głos lektora mówi: „Zostałam wybrana, ponieważ jestem najlepszym kandydatem na stanowisko o różnorodności. Jestem kobietą i osobą kolorową, więc jeśli krytykujesz cokolwiek, co mówię, jesteś seksistą i rasistą”.

W oszukańczym komentarzu lektora Bidena powiedziano też, że jest niedołężny, a Harris i Biden są marionetkami „głębokiego państwa”.

W swoim repostingu klipu, który został wyświetlony ponad 117 milionów razy, Musk nie wspomniał, że wideo zostało zmontowane, pisząc jedynie: „To jest niesamowite 😂”.

I to może po prostu kolidować z X polityka dotycząca mediów syntetycznych i manipulowanychktóry stanowi: „Nie wolno udostępniać syntetycznych, zmanipulowanych lub wyrwanych z kontekstu mediów, które mogą wprowadzać ludzi w błąd lub dezorientować ich oraz prowadzić do szkody („media wprowadzające w błąd”)”.

X twierdzi, że aby firma mogła podjąć działania i usunąć lub oznaczyć post, który narusza tę politykę, musi on „obejmować media, które są znacząco i myląco zmienione”, „udostępnione w sposób mylący lub z fałszywym kontekstem” lub które mogą spowodować „szerokie zamieszanie w kwestiach publicznych”.

Firma twierdzi, że weźmie pod uwagę takie czynniki, jak „to, czy dodano, edytowano lub usunięto jakiekolwiek informacje wizualne lub dźwiękowe (takie jak nowe klatki wideo, zdubbingowany dźwięk lub zmodyfikowane napisy), które zasadniczo zmieniają zrozumienie, znaczenie lub kontekst medium”.

Rozkwit deepfake’ów

Deepfake'i wykorzystują sztuczną inteligencję zastąpić wizerunek danej osoby wizerunkiem innej osoby w nagraniu wideo lub audio.

Deepfake'i audio są stosunkowo proste do stworzenia, ale trudne do wykrycia, badania wykazały.

W przeszłości wielu polityków padło już ofiarą tej technologii, co pokazuje, że może ona siać spustoszenie w okresie wyborczym.

W jednym z klipów, który krążył w mediach społecznościowych w zeszłym roku, Hillary Clinton wydawała się udzielać niespodziewanego poparcia gubernatorowi Florydy Ronowi DeSantisowi. Jednak klip okazał się być wygenerowany przez sztuczną inteligencję, Agencja Reutersa zgłoszono.

Biden również padł ofiarą deepfake’a po tym, jak ogłosił, że wycofuje się z wyścigu o prezydenturę w 2024 r.

W mediach społecznościowych pojawił się film, na którym prezydent atakuje swoich krytyków i ich przeklina. Jednak, jak już wspomniano, nagranie było deepfake’iem, zgodnie z Agencja informacyjna AFP.



źródło