"USA Today": eksperci ostrzegają, że AI może doprowadzić do zniszczenia ludzkości

Fot. Adobe Stock
Fot. Adobe Stock

Setki ekspertów podpisały się pod oświadczeniem, w którym ostrzegają, że sztuczna inteligencja (AI) może doprowadzić do zniszczenia ludzkości. Ryzyko takie powinno być traktowane równie poważnie, jak zagrożenie wojną nuklearną - głosi komunikat cytowany w środę przez "USA Today".

Oświadczenie ekspertów opublikowała organizacja pozarządowa Centrum na Rzecz Bezpieczeństwa AI (CAIS), która poinformowała, że zrobiła to, aby skłonić specjalistów, dziennikarzy i polityków do zainicjowania szerokiej społecznej debaty na temat ryzyka związanego z bardzo szybkim rozwojem AI.

Wśród 350 sygnatariuszy komunikatu jest między innymi Geoffrey Hinton nazywany "ojcem chrzestnym sztucznej inteligencji", który odszedł z Google'a, by swobodnie ostrzegać przed zagrożeniami związanymi z AI oraz Sam Altman - dyrektor wykonawczy firmy OpenAI, która jest twórcą popularnego chatbota ChatGPT, a także menedżerowie najsłynniejszych spółek specjalizujących się w AI, jak Google, DeepMind, Microsoft czy Anthropic.

"Sądzę, że jeżeli coś pójdzie źle w (rozwoju) tej technologii, to może pójść całkiem źle. (...) Chcemy współpracować z rządem, aby temu zapobiec" - powiedział niedawno Altman przed komisją Senatu USA. Wyjaśnił też, że szczególnie niepokojący jest scenariusz, w którym AI "rozwinie zdolność do autoreplikacji i wyrwie się na wolność".

Hinton ostrzega, że coraz bardziej niepokoi go błyskawiczna ewolucja technologii AI, w tym jej zdolność "rozwijania prostego rozumowania poznawczego" - relacjonuje "USA Today". Ekspert powiedział też niedawno, że najgorszy scenariusz dotyczący rozwoju AI jest realny i "całkiem możliwe jest, że ludzkość jest tylko przejściową fazą rozwoju inteligencji".

W pisemnym dokumencie przygotowanym przed wystąpieniem w Senacie Altman napisał, że zdaniem niezależnych ekspertów obszary, które należy nadzorować w rozwoju AI, to jej zdolność "generowania nieprawdziwych informacji", czyli tzw. halucynowania, a także dostarczenie informacji na temat broni konwencjonalnej i niekonwencjonalnej.

Jak podkreśla Hinton, to że AI może uczyć się zupełnie nieoczekiwanego zachowania ma znaczenie, ponieważ ludzie i firmy pozwalają sztucznej inteligencji nie tylko na pisanie oprogramowania, ale również na uruchamianie go, co pewnego dnia może doprowadzić do powstania autonomicznej broni.

Wyścig między koncernami technologicznymi może przerodzić się w wyścig między państwami, którego mogą nie być w stanie kontrolować międzynarodowe regulacje, jak udało się to zrobić z bronią jądrową - uważa Hinton.

Jednak inni eksperci oceniają, że przesadny niepokój związany z rozwojem AI jest nieuzasadniony, ponieważ jest to "niezmiernie wyrafinowana platforma programująca, która jednak może pójść tylko tak daleko, jak pozwolą jej ludzie" - pisze "USA Today".

W wywiadzie dla "New York Timesa" z początku maja Hinton powiedział: "Myślałem, że AI stanie się bardziej inteligentna niż ludzie za 30-50 lat lub później; oczywiście teraz już tak nie sądzę". (PAP)

fit/ ap/

arch.

Fundacja PAP zezwala na bezpłatny przedruk artykułów z Serwisu Nauka w Polsce pod warunkiem mailowego poinformowania nas raz w miesiącu o fakcie korzystania z serwisu oraz podania źródła artykułu. W portalach i serwisach internetowych prosimy o zamieszczenie podlinkowanego adresu: Źródło: naukawpolsce.pl, a w czasopismach adnotacji: Źródło: Serwis Nauka w Polsce - naukawpolsce.pl. Powyższe zezwolenie nie dotyczy: informacji z kategorii "Świat" oraz wszelkich fotografii i materiałów wideo.

Czytaj także

  • Fot. Adobe Stock

    Rosja/ Naukowcy odkryli tygryska szablozębnego sprzed 32 tys. lat

  • Fot. Adobe Stock

    "Hormon miłości" jako doustny lek na ból brzucha

Przed dodaniem komentarza prosimy o zapoznanie z Regulaminem forum serwisu Nauka w Polsce.

newsletter

Zapraszamy do zapisania się do naszego newslettera