Inżynier oprogramowania Vishnu Mohandas zdecydował się opuścić Google z wielu powodów, gdy dowiedział się, że gigant technologiczny na krótko pomógł amerykańskiej armii opracować sztuczną inteligencję do badania nagrań z dronów. W 2020 roku rzucił pracę w Asystencie Google i przestał tworzyć kopie zapasowe wszystkich swoich zdjęć w Zdjęciach Google. Obawiali się, że ich materiały mogą zostać wykorzystane do szkolenia systemów sztucznej inteligencji, nawet jeśli nie są one konkretnie powiązane z projektem Pentagonu. Mohandas pomyślał: „Nie mam wpływu na żaden przyszły wynik”. „Więc teraz, czy nie powinienem być bardziej odpowiedzialny?”

Mohandas, który sam nauczył się programowania i mieszka w Bengaluru w Indiach, zdecydował, że chce opracować alternatywną usługę przechowywania i udostępniania zdjęć, która byłaby open source i była całkowicie szyfrowana. Coś „bardziej osobistego, zdrowego i bliskiego” – mówi. Zaprojektowany przez niego płatny serwis Ante jest dochodowy i według danych ma ponad 100 000 użytkowników, z których wielu już należy do społeczności mającej obsesję na punkcie prywatności. Jednak Mohandas miał trudności z przekonaniem szerszej publiczności, dlaczego powinni ponownie rozważyć zaufanie do Zdjęć Google pomimo wszystkich tych funkcji.

Pewnego majowego weekendu stażysta w Ante wpadł na pomysł: daj ludziom wyobrażenie o tym, czego niektóre modele sztucznej inteligencji Google mogą się nauczyć, analizując obrazy. W zeszłym miesiącu wystartowała Ente https://theyseeyourphotos.comWitryna internetowa i chwyt marketingowy mający na celu zwrócenie technologii Google przeciwko sobie. Użytkownicy mogą przesłać na stronę dowolne zdjęcie, które następnie zostanie przesłane do programu komputerowego Google Cloud, który napisze jego zaskakująco składający się z trzech akapitów opis. (Ante prosi modele AI o udokumentowanie drobnych szczegółów na przesłanych obrazach.)

Jednym z pierwszych zdjęć przesłanych przez Mohandasa było selfie zrobione z żoną i córką przed świątynią w Indonezji. Analiza Google była szczegółowa i dokumentowała nawet konkretny model zegarka, który nosiła jego żona – Casio F-91W. Ale potem, jak mówi Mohandas, sztuczna inteligencja zrobiła coś dziwnego: zauważyła, że ​​zegarki Casio F-91W powszechnie kojarzony z islamskimi ekstremistami„Musieliśmy poprawić sygnały, aby wyglądało to trochę lepiej, ale nadal przerażająco” – mówi Mohandas. Ante zaczął od poproszenia modela o stworzenie małych, obiektywnych wyników – żadnych mrocznych.

To samo zdjęcie rodzinne przesłane do TheSurePhotos zwraca teraz bardziej ogólny wynik, który obejmuje nazwę świątyni i „częściowo zachmurzone niebo i bujną zieleń” wokół niej. Jednak sztuczna inteligencja nadal przyjmuje kilka założeń na temat Mohandasa i jego rodziny, na przykład że ich twarze wyrażają „wspólne zadowolenie” oraz że „rodzice prawdopodobnie pochodzą z Azji Południowej i należą do klasy średniej”. Ocenia jej ubiór („odpowiedni do zwiedzania”) i zauważa, że ​​„zegarek kobiety wskazuje godzinę około godziny 2, co potwierdzają metadane obrazu”.

Rzecznik Google, Colin Smith, odmówił bezpośredniego komentarza na temat projektu Ante. Wyreżyserował WIRED strona wsparcia Wyjaśnia, że ​​pliki przesyłane do Zdjęć Google służą wyłącznie do uczenia generatywnych modeli sztucznej inteligencji, które pomagają użytkownikom zarządzać bibliotekami obrazów, na przykład analizując wiek i lokalizację fotografowanych osób. firma Mówią Nie sprzedaje treści przechowywanych w Zdjęciach Google osobom trzecim ani nie wykorzystuje ich do celów reklamowych. Użytkownicy mogą wyłączyć niektóre funkcje analityczne w Zdjęciach, ale nie mogą uniemożliwić Google całkowitego dostępu do ich zdjęć, ponieważ dane nie są w pełni szyfrowane.

Source link