Ekspertka: AI Act ma nas chronić przed manipulacją stosowaną przez sztuczną inteligencję

Fot. Adobe Stock
Fot. Adobe Stock

AI Act ma nas chronić m.in. przed systemami sztucznej inteligencji, które używają ukrytych technik manipulacji lub wprowadzają w błąd, aby zmieniać zachowania ludzi - wskazała w rozmowie z PAP dyrektor DELab (Digital Economy Lab) Uniwersytetu Warszawskiego dr hab. Katarzyna Śledziewska.

12 lipca br. opublikowano unijne rozporządzenie o sztucznej inteligencji (AI Act), które ustala zasady dotyczące rozwoju, wdrażania i używania sztucznej inteligencji na terenie Wspólnoty. Polska rozpoczęła wtedy prace nad projektem ustawy, która umożliwi stosowanie tych przepisów w kraju. W ubiegłym tygodniu Ministerstwo Cyfryzacji informowało, że zakończono prace nad projektem ustawy w tej sprawie i skierowano go do konsultacji społecznych.

Śledziewska pytana, jak najprościej wytłumaczyć, czym jest akt w sprawie sztucznej inteligencji, zwróciła uwagę, że chodzi przede wszystkim o to, by rozwój sztucznej inteligencji był ukierunkowany na człowieka i odbywał się z poszanowaniem jego godności i wszelkich praw.

"Unia Europejska stawia na zadbanie o obywateli, firmy i podmioty działające na jej terenie przez zagwarantowanie, żeby wdrażanie systemów sztucznej inteligencji odbywało się z korzyścią dla Europejczyków, a jednocześnie, by służyło to rynkowi wewnętrznemu UE" – powiedziała.

Zwróciła uwagę, że bardzo ważnym elementem rozporządzenia w sprawie sztucznej inteligencji jest ochrona użytkowników przed systemami AI, które używają ukrytych technik manipulacji lub wprowadzają w błąd, aby zmieniać zachowania ludzi - i zmuszać ich do podejmowania decyzji, których normalnie by nie podjęli, a które mogą im zaszkodzić. Ponadto AI Act ma chronić przed systemami sztucznej inteligencji, które wykorzystują słabości osób lub grup wynikające z ich wieku, niepełnosprawności lub trudnej sytuacji społecznej czy ekonomicznej.

"Innowacje cyfrowe stają się coraz bardziej dostępne, co oznacza, że mamy powszechny dostęp do urządzeń wyposażonych we wciąż rozwijające się systemy oparte o AI. Jako użytkownicy tracimy jednak coraz większą kontrolę nad tymi urządzeniami, które automatyzują coraz więcej zadań. Często działają one jak +czarne skrzynki+ – nie wiemy dokładnie, co robią, a jednocześnie stajemy się coraz bardziej zależni od ich działania. Przyjęte rozporządzenie ma nas chronić przed najważniejszymi zagrożeniami związanymi z nieprzejrzystym działaniem systemów AI, które mogłyby manipulować naszymi decyzjami lub naruszać nasze prawa" - powiedziała.

Dyrektor DELab dodała, że AI Act wprowadza także ograniczenia w wykorzystywaniu systemów do oceny obywateli, do przewidywania prawdopodobieństwa popełnienia przestępstwa przez osobę fizyczną wyłącznie na podstawie profilowania oraz do rozpoznawania twarzy poprzez pozyskiwanie wizerunków z internetu.

"To jest to rozporządzenie, które ma sprawić, że będziemy chronieni również w miejscu pracy. Rozporządzenie zakazuje stosowania systemów AI, które mogłyby być wykorzystywane do wyciągania wniosków na temat emocji osoby fizycznej w miejscu pracy lub instytucjach edukacyjnych - z wyjątkiem przypadków, w których system AI ma zostać wdrożony lub wprowadzony do obrotu ze względów medycznych lub bezpieczeństwa. Natomiast problem polega na tym, że jeszcze nie do końca wiemy, co w praktyce wdrożenie AI Actu w poszczególnych krajach oznacza w zakresie instytucji, które będą odpowiedzialne za jego stosowanie i procedur, które zostaną wdrożone. Rodzi to obecnie pewne obawy związane z tym, jak zagwarantować jego skuteczność w praktyce. Oczywiście na ten moment jest jeszcze za wcześnie, żeby oceniać efekty jego przyjęcia, ponieważ większość z jego przepisów wejdzie w życie dopiero za niemal dwa lata" – powiedziała.

Śledziewska dodała, że należy zwrócić uwagę, iż AI Act jest także dużym kompromisem dla wielu państw UE. "Mimo, iż jego głównym celem jest ochrona praw człowieka, to wiele państw zagwarantowało sobie większe możliwości użycia sztucznej inteligencji do celów militarnych. Do tego jest obawa, czy nałożone przez AI Act wymagania nie ograniczą za bardzo rozwoju nowych systemów opartych o AI w Europie" – oceniła.

Zgodnie z opublikowanym w ubiegłym tygodniu projektem ustawy o systemach sztucznej inteligencji powstać ma m.in. Komisja Rozwoju i Bezpieczeństwa Sztucznej Inteligencji, która ma być krajowym organem nadzoru nad AI.

Jak zaznaczyła Śledziewska, powołanie tej komisji "po prostu było potrzebne". "Nie mieliśmy wcześniej w ogóle takiej instytucji, która zajmowałaby się monitorowaniem rynku dot. AI na poziomie krajowym, w której współpracują członkowie tylu różnych instytucji" – wskazała.

W projekcie ustawy o AI resort cyfryzacji zdecydował też, by członkami komisji byli przedstawiciele instytucji kluczowych dla rozwoju rynku AI, tj. ministra właściwego ds. informatyzacji (obecnie MC), ministra powołanego do koordynowania działalności służb specjalnych (jeśli takowy nie jest wyznaczony to kancelarii premiera), Urzędu Ochrony Danych Osobowych, Urzędu Ochrony Konkurencji i Konsumentów, Komisji Nadzoru Finansowego, Rzecznika Praw Obywatelskich, Rzecznika Praw Dziecka, Krajowej Rady Radiofonii i Telewizji oraz Urzędu Komunikacji Elektronicznej.

W ocenie dyrektor DELabu, utworzenie Komisji Rozwoju i Bezpieczeństwa Sztucznej Inteligencji jest krokiem w dobrą stronę. "Działania monitorujące rynek powinny być podejmowane przez zespół, w którym mamy przedstawicieli różnych instytucji, którzy mogą nie tylko monitorować kwestię wdrażania nowych regulacji, ale też weryfikować, co jest potrzebne, a co się nie sprawdza i odpowiednio reagować. To może być ważny organ do monitorowania rozwoju sztucznej inteligencji oraz zapewnienia bezpieczeństwa jej zastosowań. KRiBS będzie mogła pełnić kluczową rolę w kształtowaniu polityki związanej z AI na poziomie krajowym czy międzynarodowym, z uwzględnieniem zarówno potencjalnych korzyści, jak i zagrożeń związanych z tą technologią" – powiedziała.

Pytana, czy działania Ministerstwa Cyfryzacji w kontekście rozwoju sztucznej inteligencji w Polsce, są wystarczające, Śledziewska zaznaczyła, że brakuje nam odpowiedniej edukacji dot. AI. "To, czego teraz bardzo potrzebujemy, to wsparcie w postaci m.in. szkoleń kierowanych do małych i średnich przedsiębiorstw. Do tego musimy wspierać polskie firmy, które same zajmują się rozwijaniem technologii opartych na sztucznej inteligencji i wdrażają je w innych przedsiębiorstwach. To jest moim zdaniem kluczowe" – oceniła. (PAP)

agg/ drag/ mick/ mow/

Fundacja PAP zezwala na bezpłatny przedruk artykułów z Serwisu Nauka w Polsce pod warunkiem mailowego poinformowania nas raz w miesiącu o fakcie korzystania z serwisu oraz podania źródła artykułu. W portalach i serwisach internetowych prosimy o zamieszczenie podlinkowanego adresu: Źródło: naukawpolsce.pl, a w czasopismach adnotacji: Źródło: Serwis Nauka w Polsce - naukawpolsce.pl. Powyższe zezwolenie nie dotyczy: informacji z kategorii "Świat" oraz wszelkich fotografii i materiałów wideo.

Czytaj także

Przed dodaniem komentarza prosimy o zapoznanie z Regulaminem forum serwisu Nauka w Polsce.

newsletter

Zapraszamy do zapisania się do naszego newslettera