Na szczycie AI Action w Paryżu badacze przeciwko tworzeniu „kopii człowieka”

Fot. Adobe Stock. Wygenerowano przy użyciu AI.
Fot. Adobe Stock. Wygenerowano przy użyciu AI.

Według eksperta z NASK jednym z najważniejszych wątków w paryskiej debacie AI Action na temat bezpieczeństwa rozwoju sztucznej inteligencji była troska o to, aby budować narzędzie pomocnicze dla ludzkości a nie substytut człowieka oraz aby równocześnie tworzyć zabezpieczenia powstających modeli.

„O całkowitym zatrzymaniu prac nad sztuczną inteligencją nie było mowy. Wybrzmiała za to opinia, że AGI (Artificial General Intelligence, sztuczna inteligencja prześcigająca ludzkie zdolności poznawcze-red.) nie jest nam potrzebna” – ocenił w rozmowie z PAP Szymon Łukasik, prof. AGH z Wydziału Fizyki i Informatyki Stosowanej, dyrektor Ośrodka Badań nad Bezpieczeństwem Sztucznej Inteligencji w NASK, który uczestniczy w wydarzeniach towarzyszących szczytowi AI Action w Paryżu.

W jego opinii badacze – wśród nich wielu noblistów - którzy licznie spotkali się w stolicy Francji aby dyskutować o kierunku rozwoju AI - opowiadają się za traktowaniem sztucznej inteligencji „w sposób narzędziowy” i wykorzystaniem jej „w poszczególnych zadaniach, które mogą pomóc człowiekowi”.

Wielu ekspertów wyrażało jednak w Paryżu niepokój w związku z rozwojem AI, który ich zdaniem odbywa się bardzo szybko. Max Tegmark, jeden z założycieli Instytutu Future of Life (organizacja non-profit, której celem jest kierowanie rozwojem technologii w taki sposób, aby uniknąć zagrożeń-red.) ostrzegał, że AGI powstanie w ciągu najbliższych 10 lat i pytał, czy ludzkość potrzebuje tego rodzaju sztucznej inteligencji. Według dyr. Łukasika w dyskusji na forum konferencji wyróżniał się pogląd, że ludzie potrzebują technologicznego pomocnika w funkcjonowaniu, a nie swojej kopii. Mimo to pojawił się wątek buntu maszyn i „oszukiwania” człowieka przez zaprogramowane przez niego maszyny.

„Podkreślano - w ramach dyskusji o tym, czy modele mają świadomość i czy istnieją zagrożenia egzystencjalne dla naszej cywilizacji - że są już prace badawcze o tym, że jeśli model ma postawiony cel, np. wygraną w grze, to jest w stanie modyfikować jej reguły, żeby wygrać” – zauważył Łukasik i dodał: „wniosek był taki, że powinniśmy tak definiować cele modelu, żeby one nie były rozbieżne z interesami ludzkości”.

Z kolei ekonomista Joseph E. Stiglitz, laureat Nagrody Nobla w dziedzinie ekonomii z 2001 r przestrzegał, że rozwój sztucznej inteligencji doprowadzi do przeorientowania gospodarek i wielu ludzi – zastąpionych przez AI - straci pracę lub będzie zmuszona do przekwalifikowania się.

Nastroje tonował, według dyr. Łukasika, Kanadyjczyk Geoffrey E. Hinton, laureat nagrody Nobla z fizyki w 2021 roku, który podkreślał, że modele językowe na obecnym poziomie rozwoju mają ograniczenia - są jak „stochastyczne papugi” - bo tak naprawdę nie rozumieją tekstu, który generują.

Dr Łukasik wziął w Paryżu udział w pierwszej konferencji nowo powstałego Międzynarodowego Stowarzyszenia Bezpiecznej i Etycznej Sztucznej Inteligencji (International Association for Safe and Ethical AI), którego inicjatorem jest prof. Stuart Russell z Uniwersytetu w Berkeley w USA. Według polskiego eksperta, grono osób zaangażowanych w tworzenie tego stowarzyszenia stało także za listem otwartym ekspertów z 2023 roku, którzy ( m.in. Russell, Elon Musk i Steve Wozniak-red.) wezwali do zatrzymania „na przynajmniej 6 miesięcy” zbyt szybko posuwającego się według nich rozwoju sztucznej inteligencji.

Do najciekawszych głosów zasłyszanych wśród uczestników spotkania dr Łukasik zaliczył wystąpienie prof. Russella. Profesor stwierdził, że świat ma prawo żądać od firm rozwijających sztuczną inteligencję zapewnienia bezpieczeństwa tego procesu. „Mocno zaakcentował to, że nawet jeśli firmy twierdzą, że się tego nie da zrobić, albo że to będzie dużo kosztować, to my jako użytkownicy mamy prawo od nich tego wymagać, tak jak wymagamy tego od firm produkujących samoloty” – podkreślił Łukasik i dodał, że wielu badaczy używało porównania do przemysłu lotniczego, także wykorzystującego przełomowe technologie, wiążące się z dużym ryzykiem, „który został przecież prawnie uregulowany”.

Według dyr. Łukasika tworzenie zabezpieczeń powstających modeli językowych leży w interesie firm, które w ten sposób uchronią się przed wykorzystywaniem ich produktów w niewłaściwy sposób. „Jako środowisko instytutów zajmujących się bezpieczeństwem AI domagamy się, aby te zabezpieczenia były transparentne, aby można je było weryfikować według uzgodnionych standardów, za pomocą konkretnych zestawów testów” – powiedział ekspert.

Zdaniem eksperta kluczowe jest zaopatrywanie algorytmów w możliwość wyłączenia modelu w sytuacji awaryjnej. „Jeśli bowiem mamy system AI, który steruje pracą urządzenia, np. samolotu i zauważamy, że zachowuje się nie tak, jak oczekujemy, musi istnieć wyłącznik awaryjny. Niestety wiele algorytmów nie jest projektowanych w ten sposób, a chodzi o to, żeby taka ścieżka boczna, „on-off switch” była standardem” – ocenił Łukasik.

Konferencje Stowarzyszenia Bezpiecznej i Etycznej Sztucznej Inteligencji mają się odbywać co roku. Może ono według dyr. Łukasika pełnić rolę think tanku lobbującego za bezpiecznym rozwojem AI, ale systemowym badaniem zagrożeń zajmują się takie ośrodki jak U.S. Artificial Intelligence Safety Institute czy polski NASK.

Takich instytutów jest obecnie na świecie kilkanaście. Prym wśród nich wiedzie według polskiego eksperta ośrodek amerykański. „Niestety delegacja amerykańskiego instytutu – koordynator sieci - nie przyjechała do Paryża, a nowa administracja zwolniła też jego szefową. Mam nadzieję, że działalność tego instytutu będzie kontynuowana, bo jeśli w USA nastąpił mocny zwrot od wypracowanego dotąd podejścia do bezpieczeństwa AI, będzie to miało duży wpływ na resztę świata” - ocenił dyr. Łukasik podkreślając, że jak dotąd jedyne spotkanie sieci ośrodków zajmujących się bezpieczeństwem AI odbyło się w listopadzie w San Francisco. Ekspert podkreślił, że zaczęły się już pojawiać dobrze przemyślane amerykańskie i brytyjskie raporty, oceniające modele językowe we współpracy z tworzącymi je firmami. (PAP)

ag/ lm/

Fundacja PAP zezwala na bezpłatny przedruk artykułów z Serwisu Nauka w Polsce pod warunkiem mailowego poinformowania nas raz w miesiącu o fakcie korzystania z serwisu oraz podania źródła artykułu. W portalach i serwisach internetowych prosimy o zamieszczenie podlinkowanego adresu: Źródło: naukawpolsce.pl, a w czasopismach adnotacji: Źródło: Serwis Nauka w Polsce - naukawpolsce.pl. Powyższe zezwolenie nie dotyczy: informacji z kategorii "Świat" oraz wszelkich fotografii i materiałów wideo.

Czytaj także

  • Fot. Adobe Stock

    Dane z sondy pozwoliły lepiej zrozumieć naturę wiatru słonecznego

  • Fot. Adobe Stock. Wygenerowano przy użyciu AI

    Francja/ 60 krajów - bez USA i W. Brytanii - podpisało deklarację szczytu w sprawie AI

Przed dodaniem komentarza prosimy o zapoznanie z Regulaminem forum serwisu Nauka w Polsce.

newsletter

Zapraszamy do zapisania się do naszego newslettera