W Wielkiej Brytanii uruchomiono platformę mającą na celu zwiększenie zaufania przedsiębiorstw do sztucznej inteligencji

Wielka Brytania udostępnia platformę pomagającą przedsiębiorstwom oceniać i ograniczać ryzyko związane ze sztuczną inteligencją (AI) w miarę jej coraz powszechniejszego stosowania.

A komunikat prasowy rząd Wielkiej Brytanii w środę (6 listopada) określił platformę zapewniania bezpieczeństwa sztucznej inteligencji jako „punkt kompleksowej obsługi”, w którym można uzyskać wskazówki i zasoby umożliwiające przedsiębiorstwom przeprowadzanie własnych ocen skutków i ewaluacji podczas opracowywania i korzystania z produktów i usług związanych ze sztuczną inteligencją.

Jak wynika z komunikatu, platforma zawiera także narzędzia do oceny algorytmów uczenia maszynowego pod kątem stronniczości oraz zapewnienia przejrzystości i prywatności. Według raportu Reuters istnieje wiele modeli generatywnej sztucznej inteligencji borykające się z unijnymi punktami odniesienia dotyczącymi zgodności z prawem związane z uprzedzeniami i bezpieczeństwem.

W komunikacie wspomniano również o narzędziu do samooceny, które ma pomóc małym i średnim przedsiębiorstwom we wdrażaniu odpowiedzialnych praktyk związanych ze sztuczną inteligencją.

W komunikacie Sekretarz Stanu ds. Nauki, Innowacji i Technologii Peter Kyle podkreślił znaczenie odpowiedzialnego korzystania z systemów AI. „Sztuczna inteligencja ma niesamowity potencjał w zakresie poprawy naszych usług publicznych, zwiększenia produktywności i odbudowy naszej gospodarki, ale aby w pełni ją wykorzystać, musimy zbudować zaufanie do tych systemów, które w coraz większym stopniu są częścią naszego codziennego życia” – stwierdził. powiedział.

Jak wynika z komunikatu, brytyjski Instytut Bezpieczeństwa AI, organizacja wspierana przez rząd, uruchomił niedawno program systemowych dotacji na rzecz bezpieczeństwa sztucznej inteligencji, który oferuje badaczom ze środowisk akademickich, przemysłowych i społeczeństwa obywatelskiego kwotę do 200 000 funtów.

Oprócz wysiłków krajowych Instytut Bezpieczeństwa AI podpisał memorandum o współpracy z Singapurem w celu wzmocnienia współpracy międzynarodowej w zakresie odpowiedzialnego rozwoju sztucznej inteligencji. Jak podano w komunikacie, porozumienie to ma na celu zwiększenie wysiłków badawczych oraz stworzenie wspólnych polityk i standardów w zakresie bezpieczeństwa sztucznej inteligencji.

Singapurska minister ds. rozwoju cyfrowego i informacji Josephine Teo stwierdziła w komunikacie: „Szczególne znaczenie ma nasze wspólne wsparcie dla międzynarodowej sieci instytutów bezpieczeństwa AI (AISI). Wzmacniając możliwości naszych AISI, staramy się zwiększać bezpieczeństwo sztucznej inteligencji, aby nasi obywatele i przedsiębiorstwa mogli bez obaw wykorzystywać sztuczną inteligencję i czerpać korzyści z jej powszechnego zastosowania”.

Nowy raport prognozuje sześciokrotny wzrost brytyjskiego rynku ubezpieczeń sztucznej inteligencji do 2035 r., osiągając ponad 6,5 miliarda funtów – czytamy w komunikacie.

Tymczasem, w USAFirmy technologiczne borykają się z ograniczeniami w zakresie międzynarodowych partnerstw na rzecz rozwoju sztucznej inteligencji, ponieważ Biały Dom nakazał chronić innowacje w zakresie sztucznej inteligencji w sektorze prywatnym jak technologie wojskowe.

źródło

LEAVE A REPLY

Please enter your comment!
Please enter your name here