Dołącz do naszych codziennych i cotygodniowych biuletynów, aby otrzymywać najnowsze aktualizacje i ekskluzywne treści na temat wiodącego w branży zakresu sztucznej inteligencji. dowiedz się więcej


Choć wybory w USA w 2024 r. koncentrowały się na tradycyjnych kwestiach, takich jak gospodarka i imigracja, ich odstraszający wpływ na politykę w zakresie sztucznej inteligencji może okazać się jeszcze bardziej transformacyjny. Bez ani jednego pytania w debacie ani ważnej obietnicy w kampanii na temat sztucznej inteligencji wyborcy niechcący przechylili szalę na korzyść akceleratorów – tych, którzy opowiadają się za szybkim rozwojem sztucznej inteligencji przy minimalnych przeszkodach regulacyjnych. Konsekwencje tego przyspieszenia są głębokie i zapoczątkowują nową erę polityki w zakresie sztucznej inteligencji, która przedkłada innowacje nad ostrożność i sygnalizują zdecydowaną zmianę w debacie pomiędzy potencjalnym ryzykiem a korzyściami związanymi ze sztuczną inteligencją.

Probiznesowe stanowisko prezydenta-elekta Donalda Trumpa skłoniło wielu do założenia, że ​​jego administracja będzie faworyzować podmioty rozwijające i promujące sztuczną inteligencję i inne zaawansowane technologie. ich impreza platforma Niewiele można powiedzieć o sztucznej inteligencji. Podkreśla jednak podejście polityczne skupiające się na uchyleniu przepisów dotyczących sztucznej inteligencji, w szczególności skupiając się na tym, co określił jako „radykalne idee lewicowe” w ramach istniejących zarządzeń wykonawczych odchodzącej administracji. Z kolei platforma wspierała rozwój sztucznej inteligencji mający na celu promowanie wolności słowa i „rozkwitu człowieka”, wzywając do opracowania polityk umożliwiających innowacje w zakresie sztucznej inteligencji, a jednocześnie przeciwstawiając się środkom utrudniającym postęp technologiczny.

Wczesne wskazania oparte na nominacjach na kluczowe stanowiska rządowe podkreślają ten kierunek. Wyłania się jednak szersza historia: rozwiązanie intensywnej debaty na temat przyszłości sztucznej inteligencji.

intensywna debata

Od czasu pojawienia się ChatGPT w listopadzie 2022 r. toczy się gorąca debata w dziedzinie sztucznej inteligencji pomiędzy tymi, którzy chcą przyspieszyć rozwój sztucznej inteligencji, a tymi, którzy chcą go spowolnić.

Słynne jest to, że w marcu 2023 roku ta ostatnia grupa zaproponowała sześciomiesięczną przerwę w rozwoju sztucznej inteligencji w rozwoju najbardziej zaawansowanych systemów, ostrzegając list otwarty Narzędzia AI stwarzają „poważne ryzyko dla społeczeństwa i ludzkości”. List ten, prowadzony przez Instytut Przyszłości ŻyciaChatGPT powstał po wydaniu przez OpenAI modelu dużego języka GPT-4 (LLM) kilka miesięcy po jego uruchomieniu.

List podpisało początkowo ponad 1000 liderów technologii i badaczy, w tym Elon Musk, współzałożyciel Apple Steve Wozniak, kandydat na prezydenta w roku 2020 Andrew Yang, twórca podcastów Lex Friedman oraz pionierzy sztucznej inteligencji Yoshua Bengio i Stuart Russell Were. Ostatecznie liczba sygnatariuszy listu przekroczyła 33 000. Wspólnie stali się znani jako „doomers”, termin używany do wyrażania obaw związanych z potencjalnymi zagrożeniami egzystencjalnymi ze strony sztucznej inteligencji.

Nie wszyscy się zgodzili. Dyrektor generalny OpenAI Sam Altman nie podpisał. Ani Billa Gatesa, ani wielu innych. Powody, dla których tego nie robią, są różne, chociaż wiele osób wyraziło obawy dotyczące potencjalnych szkód powodowanych przez sztuczną inteligencję. Doprowadziło to do wielu rozmów na temat możliwości wymknięcia się sztucznej inteligencji spod kontroli, co doprowadziłoby do katastrofy. Dla wielu osób zajmujących się AI modne stało się mówienie o sobie Ocena prawdopodobieństwa zniszczeniaKtóre często określa się mianem równania: P(dzień zagłady). Niemniej jednak prace nad rozwojem AI nie ustały.

Dla przypomnienia, moje P(zagłada) w czerwcu 2023 r. wyniosło 5%. Może wydawać się niski, ale nie był zerowy. Uważam, że główne laboratoria zajmujące się sztuczną inteligencją szczerze starały się rygorystycznie testować nowe modele przed ich wypuszczeniem na rynek i zapewniać znaczną ochronę ich użytkowania.

Wielu obserwatorów zaniepokojonych zagrożeniami związanymi ze sztuczną inteligencją oceniło ryzyko egzystencjalne na wyższe niż 5%, a niektórzy przyznali oceny znacznie wyższe. Badacz bezpieczeństwa sztucznej inteligencji Roman Yampolsky ocenia potencjał sztucznej inteligencji Ludzkość kończy się na ponad 99%Powiedział, A Badanie Na początku tego roku badanie opublikowane na długo przed wyborami i przedstawiające poglądy ponad 2700 badaczy sztucznej inteligencji wykazało, że „średnio przewidywania wyjątkowo złych skutków, takich jak wyginięcie ludzkości, wynosiły 5%. Czy wsiadłbyś do samolotu, gdyby ryzyko jego rozbicia wynosiło 5%? Przed takim dylematem stoją badacze sztucznej inteligencji i decydenci.

trzeba iść szybko

Inni otwarcie odrzucają obawy dotyczące sztucznej inteligencji, zamiast tego wskazują na to, co postrzegają jako główne korzyści płynące z tej technologii. Należą do nich Andrew Ng (założyciel i kierownik projektu Google Brain) oraz Pedro Domingos (profesor informatyki i inżynierii na Uniwersytecie Waszyngtońskim oraz autor „The Google Brain Project”).algorytm głównyZamiast tego argumentował, że sztuczna inteligencja jest częścią rozwiązania. Jak wskazuje Ng, rzeczywiście istnieją zagrożenia egzystencjalne, takie jak zmiana klimatu i przyszłe pandemie, a sztuczna inteligencja może przyczynić się do stawienia czoła im i łagodzenia ich.

Ng argumentował, że rozwoju sztucznej inteligencji nie należy wstrzymywać, ale powinien on postępować szybko. Ten utopijny pogląd na technologię podzielają także inni, znani pod wspólną nazwą „Efektywnych Akceleratorów” lub w skrócie „E/ACC”. Twierdzi, że technologia – a w szczególności sztuczna inteligencja – nie jest problemem, ale rozwiązaniem większości, jeśli nie wszystkich, problemów świata. akcelerator startupów Kombinator Y Dyrektor generalny Gary Tan wraz z innymi kluczowymi liderami z Doliny Krzemowej umieścili słowo „E/ACC” w swojej nazwie użytkownika na X, aby pokazać zgodność z wizją. Kevin Roose, reporter „The New York Times”. uchwycił sedno Ci akceleratorzy twierdzą, że stosują „podejście wyłącznie na gazie, bez hamulców”.

podstos Biuletyn Podstawowe zasady skutecznego akceleracji zostały opisane kilka lat temu. Oto podsumowanie, które zaprezentowali na końcu artykułu, a także komentarz dyrektora generalnego OpenAI Sama Altmana.

Przed nami przyspieszenie AI

Wynik wyborów w 2024 r. można postrzegać jako punkt zwrotny, wyznaczający przyspieszającą wizję, która będzie kształtować amerykańską politykę w zakresie sztucznej inteligencji na kilka najbliższych lat. Na przykład nowo wybrany prezydent mianował niedawno przedsiębiorcę technologicznego i inwestora kapitału wysokiego ryzyka Davida Sachsa na „cesarza sztucznej inteligencji”.

Sachs, zdeklarowany krytyk regulacji dotyczących sztucznej inteligencji i zwolennik innowacji rynkowych, wnosi do tej roli swoje doświadczenie jako inwestora technologicznego. Jest jednym z czołowych głosów w branży sztucznej inteligencji, a wszystko, co powiedział na temat sztucznej inteligencji, pokrywa się z podejściem akceleracyjnym wyrażanym przez nadchodzącą platformę imprezową.

W odpowiedzi na rozporządzenie wykonawcze administracji Bidena dotyczące sztucznej inteligencji z 2023 r., Sachs Tweetowano: „Amerykańska sytuacja polityczna i fiskalna jest beznadziejnie zła, ale jako kraj mamy wyjątkowy atut: najnowocześniejsze innowacje w zakresie sztucznej inteligencji napędzane przez całkowicie wolny i nieuregulowany rynek tworzenia oprogramowania. To się właśnie skończyło.” Choć nie wiadomo, jaki wpływ Sachs będzie miał na politykę w zakresie sztucznej inteligencji, jego nominacja sygnalizuje zwrot w kierunku polityki sprzyjającej samoregulacji branży i szybkim innowacjom.

wybory mają swoje konsekwencje

Wątpię, czy większość głosujących zastanawiała się nad konsekwencjami polityki w zakresie sztucznej inteligencji, oddając swój głos. Jednak w bardzo konkretny sposób wybory zakończyły się zwycięstwem akceleratorów, potencjalnie odsuwając na bok zwolenników bardziej ostrożnego podejścia rządu federalnego do ograniczania długoterminowych zagrożeń związanych ze sztuczną inteligencją.

Ponieważ akceleratorzy wyznaczają ścieżkę naprzód, stawka nie może być wyższa. Czas pokaże, czy ta era przyniesie niezrównany postęp, czy nieoczekiwane zniszczenie. W miarę przyspieszania rozwoju sztucznej inteligencji potrzeba świadomej dyskusji publicznej i czujnego nadzoru staje się jeszcze ważniejsza. To, jak będziemy postępować w tej epoce, określi nie tylko postęp technologiczny, ale także naszą wspólną przyszłość.

Jako przeciwwagę dla braku działań na poziomie federalnym możliwe jest przyjęcie przez jeden lub więcej stanów odmiennych regulacji, co w pewnym stopniu już miało miejsce. Kalifornia I KoloradoNa przykład kalifornijska ustawa o bezpieczeństwie AI koncentruje się na wymogach przejrzystości, podczas gdy Kolorado zajmuje się dyskryminacją AI w praktykach zatrudniania, oferując modele zarządzania na poziomie stanowym. Teraz oczy wszystkich będą zwrócone na dobrowolne testy i samodzielnie narzucone bariery przez Anthropic, Google, OpenAI i innych twórców modeli sztucznej inteligencji.

Krótko mówiąc, zwycięstwo akceleratorów oznacza mniej ograniczeń dla innowacji w zakresie sztucznej inteligencji. Ta zwiększona prędkość może rzeczywiście prowadzić do szybszych innowacji, ale zwiększa również ryzyko niezamierzonych konsekwencji. Teraz zmieniam mój P(Doom) na 10%. jakie jest twoje?

Gary Grossman jest wiceprezesem ds. praktyki technologicznej edelmana i globalne przywództwo w Centrum Doskonałości AI Edelman.

decydentów danych

Witamy w społeczności VentureBeat!

DataDecisionMakers to miejsce, w którym eksperci, w tym osoby techniczne pracujące nad danymi, mogą dzielić się spostrzeżeniami i innowacjami związanymi z danymi.

Jeśli chcesz przeczytać o nowatorskich pomysłach i najnowszych informacjach, najlepszych praktykach oraz przyszłości danych i technologii danych, dołącz do nas na DataDecisionMakers.

Możesz także rozważyć napisanie własnego artykułu!

Przeczytaj więcej od DataDecisionmakers


Source link