Oddanie ChatGPT4 na wczesnym etapie w ręce społeczeństwa ma sens, bo pomaga zauważyć błędy, zanim urosną w siłę i staną się niebezpieczne. Również instytucje nadzorujące bezpieczeństwo mają w ten sposób czas na stworzenie ram prawnych – powiedział szef OpenAI podczas spotkania na Uniwersytecie Warszawskim.
Szef OpenAI - Sam Altman, Wojciech Zaremba – współzałożyciel firmy Open AI oraz Szymon Sidor – naukowiec wybrali się w podróż po świecie, by – jak sami zrelacjonowali – porozmawiać z użytkownikami, programistami i przedstawicielami instytucji rządowych o możliwościach i zagrożeniach wynikających z rozwoju sztucznej inteligencji (SI). Stworzone przez nich narzędzie – ChatGPT4 zyskało ogromną popularność na całym świecie i stało się przedmiotem poważnych debat.
Wtorkowe spotkanie na Uniwersytecie Warszawskim obyło się w ramach inicjatywy IDEAS NCBiR. Prowadząca spotkanie dziennikarka zapytała, czy twórcy ChatGPT nie żałują, że udostępnili narzędzie szerokiemu gronu odbiorców zbyt szybko, jeszcze przed wprowadzeniem jakichkolwiek regulacji szykowanych np. przez Unię Europejską.
„Częściej spotykaliśmy się z zarzutem, że działamy zbyt wolno; że zbyt długo – bo aż 8 miesięcy trzymamy ChatGPT w laboratorium. Oddanie ChatGPT4 na wczesnym etapie w ręce społeczeństwa ma sens, bo pomaga zauważyć błędy, zanim urosną w siłę i staną się niebezpieczne. Również instytucje nadzorujące bezpieczeństwo mają w ten sposób czas na stworzenie ram prawnych. Ten proces uczenia się musi odbywać się w ścisłej współpracy ze społeczeństwem” – powiedział szef OpenAI Sam Altman.
Podkreślił też, że „jak każda znacząca dla rozwoju ludzkości technologia, SI też może być wykorzystana w zły sposób”. Jako przykład podał energię atomową.
„Na całym świecie musimy pochylić się nad szukaniem rozwiązań, żeby się zabezpieczyć. Może SI nie będzie aż tak niebezpieczna jak energia atomowa, która wpadnie w niepowołane ręce, ale dopóki nie poznamy jej bliżej, powinniśmy się zachowywać tak, jakby była podobnie niebezpieczna” – przestrzegał Altman.
Zapytany czy nie boi się, że stworzone przez firmę OpenAI rozwiązanie oparte na sztucznej inteligencji może zagrażać demokracji przez szerzenie dezinformacji podczas kampanii wyborczych w różnych krajach, przytaknął.
„Obawiamy się. Jedną z rzeczy, którą staramy się robić podczas naszej podróży po świecie, są rozmowy z ludźmi, którzy tworzą regulacje prawne. Potrzebny jest system monitorowania firm takich jak nasza, by użytkownicy wiedzieli, że rozmawia z nimi sztuczna inteligencja, a nie człowiek” - zaznaczył. Dodał, że jednocześnie część pracy zawsze będzie w tzw. otwartym dostępie (open access) i „tego nie da się zatrzymać”, więc „trzeba pomyśleć o adaptacji społeczeństw do tego stanu rzeczy”.
Na pytanie publiczności: „skąd czerpiecie wiedzę na temat – co jest etyczne w obszarze sztucznej inteligencji?” – Altman, Zaremba i Sidor nie potrafili odpowiedzieć żadnym konkretem.
„Chcemy, żeby jakość życia ludzi na świecie zmieniała się na lepsze. Robimy też wszystko, by rozwiązywać problemy związane z bezpieczeństwem, dlatego rozmawiamy z wieloma instytucjami” – powiedział Altman.(PAP)
Autorka: Urszula Kaczorowska
uka/ bar/
Fundacja PAP zezwala na bezpłatny przedruk artykułów z Serwisu Nauka w Polsce pod warunkiem mailowego poinformowania nas raz w miesiącu o fakcie korzystania z serwisu oraz podania źródła artykułu. W portalach i serwisach internetowych prosimy o zamieszczenie podlinkowanego adresu: Źródło: naukawpolsce.pl, a w czasopismach adnotacji: Źródło: Serwis Nauka w Polsce - naukawpolsce.pl. Powyższe zezwolenie nie dotyczy: informacji z kategorii "Świat" oraz wszelkich fotografii i materiałów wideo.