Sztuczna Inteligencja/ Rządy i organizacje międzynarodowe tworzą prawne regulacje dotyczące AI

Adobe Stock
Adobe Stock

Szybki rozwój sztucznej inteligencji (AI) powoduje, że rządy i organizacje międzynarodowe ścigają się w regulowaniu narzędzi AI i tworzą pierwsze prawne regulacje dotyczące tej technologii - podaje agencja Reutera.

Twórcy AI podczas pierwszego globalnego szczytu bezpieczeństwa AI w Wielkiej Brytanii, który odbył się 2 listopada, zgodzili się współpracować z rządami w celu przetestowania nowych narzędzi przed ich szerszym udostępnieniem, aby pomóc w zarządzaniu ryzykiem związanym z rozwijającą się technologią.

Ponad 25 krajów obecnych na szczycie podpisało 1 listopada Deklarację z Bletchley, aby współpracować i ustalić wspólne podejście do nadzoru nad AI.

Przedstawiciele Wielkiej Brytanii powiedzieli podczas szczytu, że kraj potroi do 300 milionów funtów swoje fundusze dla instytutu AI Research Resource, co obejmuje dwa superkomputery, które będą wspierać badania nad bezpieczeństwem zaawansowanych modeli sztucznej inteligencji. Wielka Brytania planuje także utworzenie pierwszego na świecie instytutu bezpieczeństwa sztucznej inteligencji.

Z kolei prawodawcy i rządy UE osiągnęły 8 grudnia tymczasowe porozumienie w sprawie zasad regulujących wykorzystanie sztucznej inteligencji, w tym wykorzystanie sztucznej inteligencji przez rządy w nadzorze biometrycznym.

Porozumienie wymaga, aby systemy AI ogólnego przeznaczenia spełniały obowiązki w zakresie przejrzystości przed wprowadzeniem ich na rynek. Obejmują one sporządzanie dokumentacji technicznej, przestrzeganie prawa autorskiego UE i rozpowszechnianie szczegółowych podsumowań dotyczących treści wykorzystywanych do szkolenia AI.

Stany Zjednoczone, Wielka Brytania i kilkanaście innych krajów przedstawiły 27 listopada 20-stronicowe niewiążące porozumienie zawierające ogólne zalecenia dotyczące sztucznej inteligencji, takie jak monitorowanie systemów pod kątem nadużyć, ochrona danych przed manipulacją i weryfikacja dostawców oprogramowania.

Stany Zjednoczone uruchomią instytut bezpieczeństwa sztucznej inteligencji w celu oceny znanych i nowych się zagrożeń związanych z tak zwanymi "pionierskimi" modelami sztucznej inteligencji.

Prezydent Joe Biden wydał 30 października rozporządzenie wykonawcze wymagające od twórców systemów sztucznej inteligencji, które mogą stanowić zagrożenie dla bezpieczeństwa narodowego USA, gospodarki, zdrowia publicznego lub bezpieczeństwa, udostępniania rządowi wyników testów bezpieczeństwa.

Także Chiny zdecydowały się na wprowadzenie regulacji prawnych dotyczących AI, Wu Zhaohui, chiński wiceminister nauki i technologii, powiedział podczas sesji otwierającej AI Safety Summit w Wielkiej Brytanii 1 listopada, że Pekin jest gotowy do zwiększenia współpracy w zakresie bezpieczeństwa sztucznej inteligencji, aby pomóc w budowaniu międzynarodowych "ram zarządzania".

W październiku Chiny opublikowały proponowane wymogi bezpieczeństwa dla firm oferujących usługi oparte na generatywnej sztucznej inteligencji, w tym czarną listę źródeł, których nie można wykorzystywać do trenowania modeli AI.

W sierpniu kraj ten wydał zestaw tymczasowych środków wymagających od usługodawców przedłożenia ocen bezpieczeństwa i uzyskania zgody przed wypuszczeniem produktów AI na rynek. (PAP)

mwt/ mms/

Fundacja PAP zezwala na bezpłatny przedruk artykułów z Serwisu Nauka w Polsce pod warunkiem mailowego poinformowania nas raz w miesiącu o fakcie korzystania z serwisu oraz podania źródła artykułu. W portalach i serwisach internetowych prosimy o zamieszczenie podlinkowanego adresu: Źródło: naukawpolsce.pl, a w czasopismach adnotacji: Źródło: Serwis Nauka w Polsce - naukawpolsce.pl. Powyższe zezwolenie nie dotyczy: informacji z kategorii "Świat" oraz wszelkich fotografii i materiałów wideo.

Czytaj także

  • Fot. Adobe Stock

    Jedna z dwóch firm zbuduje towarowy pojazd kosmiczny dla ESA

  • Fot. Adobe Stock

    Herbata matcha może chronić przed paradontozą

Przed dodaniem komentarza prosimy o zapoznanie z Regulaminem forum serwisu Nauka w Polsce.

newsletter

Zapraszamy do zapisania się do naszego newslettera