Jestem reporterem AI i w przyszłym roku chcę pozbyć się nudy z głowy. Nie chcę słyszeć o oszustwach wykorzystujących sztuczną inteligencję, chaotycznych walkach o władzę w salach konferencyjnych ani o rosnących wskaźnikach osób nadużywających programów AI w celu tworzenia szkodliwych, wprowadzających w błąd lub celowo podburzających zdjęć i filmów.
To ciężka praca i wiem, że prawdopodobnie nie spełnię swojego życzenia. Istnieje zbyt wiele firm rozwijających sztuczną inteligencję, a wytyczne i regulacje są zbyt małe. Ale jeśli mam o coś poprosić w okresie świątecznym, to brzmi tak: rok 2025 powinien być rokiem, w którym otrzymamy znaczące etykiety dotyczące treści AI, szczególnie w przypadku zdjęć i filmów.
Obrazy i filmy generowane przez sztuczną inteligencję przeszły długą drogę, szczególnie w zeszłym roku. Jednak rozwój generatorów obrazów AI to miecz obosieczny. Ulepszenia modeli oznaczają, że obrazy są mniej halucynacyjne i drżące. Ale te dziwne rzeczy, ludzie z 12 palcami i znikające przedmioty, były jedną z niewielu rzeczy, które ludzie mogli oznaczyć i ponownie zgadnąć, czy obraz został stworzony przez ludzi, czy przez sztuczną inteligencję. W miarę udoskonalania się generatorów AI i zanikania tych sygnałów będzie to duży problem dla nas wszystkich.
Walka o władzę prawną i debata etyczna na temat obrazów AI będą niewątpliwie kontynuowane w przyszłym roku. Ale na razie generatory obrazów AI i usługi edycji są legalne i łatwe w użyciu. Oznacza to, że treści oparte na sztucznej inteligencji będą w dalszym ciągu ulepszać nasze doświadczenia online, a identyfikacja pochodzenia obrazu staje się trudniejsza – i ważniejsza – niż kiedykolwiek. Nie ma złotego środka, rozwiązanie uniwersalne. Wierzę jednak, że powszechne przyjęcie etykiet treści AI będzie pomocne.
Złożona historia sztuki AI
Jeśli jest jeden przycisk, który możesz nacisnąć, aby wprawić dowolnego artystę w ślepą wściekłość, uruchamia on generator obrazów AI. Technologia oparta na generatywnej sztucznej inteligencji może stworzyć doskonałe obrazy z kilku prostych słów w Twoich znakach. Wykorzystałem i zrecenzowałem kilka z nich dla CNET i wciąż zaskakuje mnie, jak szczegółowe i wyraźne mogą być obrazy. (Nie wszyscy są zwycięzcami, ale mogą być bardzo dobrzy.)
Jak zwięźle ujął to mój były kolega z CNET, Stephen Shankland: „Sztuczna inteligencja może pozwolić ci kłamać ze zdjęciem. Ale nie chcesz, żeby zdjęcie zostało nietknięte cyfrową obróbką”. Znalezienie równowagi pomiędzy poprawianiem a edytowaniem prawdy to coś, czym fotoreporterzy, redaktorzy i producenci zajmują się od lat. Generacyjna sztuczna inteligencja i edycja oparta na sztucznej inteligencji sprawiają, że jest to bardziej złożone.
Weźmy na przykład Adobe. Tej jesieni firma Adobe wprowadziła mnóstwo nowych funkcji, z których wiele opiera się na generatywnej sztucznej inteligencji. Photoshop może teraz usuwać rozpraszające przewody i kable ze zdjęć, a użytkownicy Premiere Pro mogą wydłużać istniejące klipy filmowe za pomocą ogólnej sztucznej inteligencji. Deepa Subramaniam z Adobe powiedziała mi, że Wypełnianie generatywne to jedno z najpopularniejszych narzędzi programu Photoshop, na równi z narzędziem Kadrowanie. Firma Adobe dała jasno do zrozumienia, że edycja generatywna będzie nowym standardem i przyszłością. A ponieważ Adobe jest standardem branżowym, stawia to twórców w trudnej sytuacji: zaangażuj się w sztuczną inteligencję lub zostań w tyle.
Chociaż firma Adobe obiecała, że nigdy nie zapewni swoim użytkownikom szkoleń w miejscu pracy – co jest jednym z największych problemów związanych z generyczną sztuczną inteligencją – nie każda firma to robi lub nawet ujawnia. W ten sposób tworzone są jej modele sztucznej inteligencji. Twórcy udostępniający swoje dzieła w Internecie muszą już stawić czoła „kradzieży dzieł sztuki i plagiatom” – powiedziała mi na początku tego roku artystka cyfrowa Rene Ramos, zauważając, że narzędzia do tworzenia obrazów obejmują te gatunki. Zapewniają dostęp do tego, czym artyści spędzili całe życie.
Co mogą zrobić etykiety AI
Etykiety AI to wszelkiego rodzaju cyfrowe powiadomienia, które oznaczają, kiedy obraz został utworzony lub znacząco zmieniony przez sztuczną inteligencję. Niektóre firmy automatycznie dodają cyfrowy znak wodny do swoich wydań (np. Imagine Meta AI), ale wiele z nich oferuje możliwość ich usunięcia poprzez przejście na warstwę płatną (np. Dell-E3 OpenAI). Użytkownicy mogą też po prostu przyciąć obraz, aby wyciąć znak identyfikacyjny.
W zeszłym roku wykonano wiele dobrej pracy, aby wspomóc te wysiłki. W ramach inicjatywy Adobe Content Authenticity Initiative uruchomiono w tym roku nową aplikację o nazwie Content Credentials, która umożliwia każdemu dołączenie cyfrowego, niewidocznego podpisu do swojej pracy. Twórcy mogą również wykorzystywać te dane uwierzytelniające do ujawniania i śledzenia wykorzystania sztucznej inteligencji w swojej pracy. Firma Adobe udostępnia także rozszerzenie do przeglądarki Google Chrome, które pomaga rozpoznać te dane uwierzytelniające w treściach internetowych.
Google przyjmuje nowy standard dotyczący danych uwierzytelniających dotyczących treści Obrazy i reklamy w wyszukiwarce Google Współzałożycielem firmy Adobe w ramach Alliance for Content Provenance and Authenticity. dodał do tego jedno nowa sekcja Wyszukaj w Google informacje o obrazie, które podkreślają dowolną edycję AI, aby uzyskać „większą przejrzystość”. Mówi się, że jest to program beta Google do znakowania wodnego i identyfikacji treści AI synthIDzrobił krok do przodu i był Uruchomiono oprogramowanie typu open source dla programistów W tym roku.
Firmy z branży mediów społecznościowych również pracują nad oznaczaniem treści AI. Z raportu wynika, że ludzie dwukrotnie częściej spotykają się z fałszywymi lub wprowadzającymi w błąd obrazami w Internecie w mediach społecznościowych niż w jakimkolwiek innym kanale Inicjatywa MediaWise firmy PoynterInstagram i spółka matka Facebooka, Meta, opublikowały zautomatyzowane etykiety „wygenerowane przez sztuczną inteligencję” dla postów w mediach społecznościowych, które błędnie oznaczały zdjęcia zrobione przez ludzi jako wygenerowane przez sztuczną inteligencję. meta później wyjaśnione Etykiety są stosowane, gdy „wykrywają standardowe w branży wskaźniki obrazu AI”, a etykieta jest zmieniana na „informacje o sztucznej inteligencji”, aby uniknąć sugerowania, że obraz został w całości wygenerowany przez program komputerowy Went. Inne platformy mediów społecznościowych, takie jak Pinterest i TikTok, z różnym powodzeniem noszą etykiety AI – z mojego doświadczenia wynika, że Pinterest jest przesycony sztuczną inteligencją, a etykiety TikTok są wszechobecne, ale łatwo je przeoczyć.
Szef Instagrama Adam Mosseri udostępnił niedawno zdjęcie serię postów Na ten temat powiedział: „Nasza rola jako platformy internetowej polega na jak najlepszym oznaczaniu treści generowanych przez sztuczną inteligencję. Jednak niektóre treści nieuchronnie prześlizgną się przez szczeliny, a nie wszystkie fałszywe informacje są generowane za pomocą sztucznej inteligencji. Musimy więc również podać kontekst o tym, kto udostępnia treści, abyś mógł sam ocenić, jak bardzo chcesz ufać ich treściom”.
Jeśli Mosseri ma jakąś praktyczną radę inną niż „weź pod uwagę źródło” – czego większość z nas uczy się na lekcjach języka angielskiego w szkole średniej – chętnie ją usłyszę. Jednak z bardziej optymistycznego punktu widzenia może to wskazywać na przyszły rozwój produktów, aby zapewnić ludziom więcej kontekstu, na przykład notatki społeczności Twittera/X. Takie rzeczy, jak etykiety AI, staną się jeszcze ważniejsze, jeśli Meta zdecyduje się kontynuować swój eksperyment polegający na dodawaniu do naszych kanałów sugerowanych postów wygenerowanych przez sztuczną inteligencję.
Czego chcemy w 2025 roku
To wszystko jest wspaniałe, ale potrzebujemy więcej. Potrzebujemy spójnych, wyraźnie widocznych etykiet w każdym zakątku Internetu. Nie jest ukryty w metadanych obrazu, ale wklejony w poprzek (lub powyżej/pod) obrazu. Im bardziej szczegółowo, tym lepiej.
Nie ma na to łatwego rozwiązania. Taka infrastruktura internetowa będzie wymagała dużo pracy i współpracy między grupami technicznymi, społecznymi, a być może nawet rządowymi i grupami społeczeństwa obywatelskiego. Jednak tego rodzaju inwestycja jest wymagana, aby oddzielić surowe obrazy od obrazów wygenerowanych całkowicie przez sztuczną inteligencję. Wspaniale jest uczyć ludzi rozpoznawania treści AI, ale w miarę ulepszania się sztucznej inteligencji nawet ekspertom takim jak ja staje się coraz trudniej dokładnie oceniać obrazy. Dlaczego więc nie przedstawić tego bardzo jasno i nie przekazać ludziom potrzebnych informacji o pochodzeniu obrazu lub przynajmniej pomóc im w odgadnięciu, kiedy zobaczą coś dziwnego?
Obawiam się, że kwestia ta znajduje się obecnie na samym dole listy zadań do wykonania dla wielu firm zajmujących się sztuczną inteligencją, zwłaszcza że wydaje się, że tendencja zmierza w kierunku tworzenia wideo opartego na sztucznej inteligencji. Jednak dla zdrowego rozsądku mnie i wszystkich innych rok 2025 powinien być rokiem, w którym wprowadzimy lepszy system identyfikacji i oznaczania obrazów AI.