W pośpiechu we wdrażaniu sztucznej inteligencji etyka schodzi na dalszy plan w wielu firmach
  • Firmy szybko integrują rozwiązania generatywne Technologia AI zwiększająca produktywność.
  • Eksperci obawiają się jednak, że wysiłki mające na celu zarządzanie ryzykiem związanym ze sztuczną inteligencją są niewystarczające.
  • Odpowiedzialne wysiłki w zakresie sztucznej inteligencji „nie postępują tak szybko, jak powinny” – powiedział starszy partner BCG.

Od tego czasu firmy prześcigają się we wdrażaniu technologii generatywnej sztucznej inteligencji w swojej pracy uruchomienie ChatGPT w 2022 r.

Dyrektorzy mówią, że są podekscytowani jak sztuczna inteligencja zwiększa produktywnośćanalizuje dane i ogranicza zajętą ​​pracę.

Według Raport Microsoft i LinkedIn dotyczący trendów w pracy na rok 2024z którego w okresie od lutego do marca wzięło udział 31 000 pracowników pełnoetatowych, blisko czterech na pięciu liderów biznesu uważa, że ​​ich firma musi wdrożyć tę technologię, aby zachować konkurencyjność.

Jednak przyjęcie sztucznej inteligencji w miejscu pracy wiąże się również z ryzykiem, w tym szkodami dla reputacji, finansowymi i prawnymi. Wyzwanie związane z ich zwalczaniem polega na tym, że są one niejednoznaczne i wiele firm wciąż próbuje zrozumieć, jak je identyfikować i mierzyć.

Programy sztucznej inteligencji prowadzone w sposób odpowiedzialny powinny obejmować strategie dotyczące zarządzania, prywatności danych, etyki oraz zaufania i bezpieczeństwa, jednak eksperci badający ryzyko twierdzą, że programy te nie nadążają za innowacjami.

Wysiłki mające na celu odpowiedzialne wykorzystanie sztucznej inteligencji w miejscu pracy nie postępują „w żadnym stopniu tak szybko, jak powinny” – powiedział Business Insider Tad Roselund, dyrektor zarządzający i starszy partner w Boston Consulting Group. Według BCG programy te często wymagają znacznych inwestycji i co najmniej dwóch lat na wdrożenie.

To duża inwestycja i zaangażowanie czasu, a liderzy firm wydają się bardziej skupiać na alokacji zasobów w celu szybkiego rozwoju sztucznej inteligencji w sposób zwiększający produktywność.

„Stworzenie dobrych możliwości zarządzania ryzykiem wymaga znacznych zasobów i wiedzy specjalistycznej, na które nie wszystkie firmy mogą sobie pozwolić lub które nie są obecnie dostępne dla wszystkich firm” – badaczka i analityk ds. polityki Nanjira Sam powiedział MIT Sloan Management Review. Dodała, że ​​„zapotrzebowanie na ekspertów w zakresie zarządzania sztuczną inteligencją i ekspertów ds. ryzyka przewyższa podaż”.

Według niego inwestorzy muszą odgrywać bardziej krytyczną rolę w finansowaniu narzędzi i zasobów na potrzeby tych programów Navrina Singh, założycielka Credo AIplatforma zarządzania, która pomaga firmom przestrzegać przepisów dotyczących sztucznej inteligencji. Według a raport Instytutu Sztucznej Inteligencji Skoncentrowanej na Człowieku Stanfordanie jest jednak jasne, ile pieniędzy trafiło do firm skupiających się na odpowiedzialnej sztucznej inteligencji.

„Środowisko kapitału wysokiego ryzyka odzwierciedla również nieproporcjonalne skupienie się na innowacjach w zakresie sztucznej inteligencji zamiast na zarządzaniu sztuczną inteligencją” – powiedział Singh e-mailem do Business Insider. „Aby odpowiedzialnie wdrożyć sztuczną inteligencję na dużą skalę i szybko, należy położyć równy nacisk na ramy etyczne, infrastrukturę i narzędzia, aby zapewnić zrównoważoną i odpowiedzialną integrację sztucznej inteligencji we wszystkich sektorach”.

Podjęto wysiłki legislacyjne mające na celu wypełnienie tej luki. W marcu UE zatwierdziła ustawę o sztucznej inteligencji, który dzieli ryzyko związane z zastosowaniami sztucznej inteligencji na trzy kategorie i zakazuje zastosowań związanych z niedopuszczalnym ryzykiem. Tymczasem, Administracja Bidena podpisała szeroko zakrojone rozporządzenie wykonawcze w październiku żądając większej przejrzystości od głównych firm technologicznych opracowujących modele sztucznej inteligencji.

Jednak biorąc pod uwagę tempo innowacji w zakresie sztucznej inteligencji, regulacje rządowe mogą obecnie nie wystarczyć, aby zapewnić firmom ochronę.

„Ryzykujemy znacznym deficytem odpowiedzialności, który może wstrzymać inicjatywy związane ze sztuczną inteligencją, zanim dotrą one do produkcji, lub, co gorsza, doprowadzić do niepowodzeń, które w przypadku wprowadzenia do produkcji skutkują niezamierzonymi zagrożeniami społecznymi, utratą reputacji i komplikacjami regulacyjnymi” – powiedział Singh.

źródło