Prof. Gawrysiak: ChatGPT robi duże wrażenie, ale technologia wciąż nie jest przełomowa

Fot. Adobe Stock
Fot. Adobe Stock

Popularny ostatnio chatbot potrafi rozmawiać na różne tematy, pisać artykuły, wiersze i programy komputerowe. Program ten nie prowadzi jednak wnioskowania i nie próbuje "zrozumieć świata" - zauważa dr hab. inż. Piotr Gawrysiak, prof. Politechniki Warszawskiej.

Dr hab. inż. Piotr Gawrysiak, prof. Politechniki Warszawskiej, jest ekspertem w zakresie sztucznej inteligencji oraz jej zastosowań w przetwarzaniu tekstu.

PAP: W ostatnim czasie pojawił się nowy celebryta - komputerowa sztuczna inteligencja, ChatGPT. Czy słusznie stała się „sławna”?

Piotr Gawrysiak: Mieliśmy już podobnych "celebrytów", choć nie aż na taką skalę. Choćby programy generujące grafikę na podstawie jej słownego opisu - Stable Diffusion, czy też Dall-E; ten drugi zresztą stworzony przez tą samą firmę, w której powstał ChatGPT. Jeśli celebrytę rozumieć jako kogoś, kto jest po prostu znany z tego, że jest znany - to powiedziałbym, że ten program faktycznie można by tak określić.

PAP: Co Pan ma na myśli?

PG: System ten rzeczywiście robi ogromne wrażenie, natomiast tak naprawdę nie pojawiła się w nim żadna nowa technologia. Oparty jest jest na pomysłach, które były już znane wcześniej. Mowa tu o poprzednich wersjach modeli GPT, ale też rozwiązaniach opracowanych w Google (chatboty LaMDA, model BERT). Pracownicy tej firmy mogą pewnie czuć się pokrzywdzeni, że ktoś inny zbiera teraz całą chwałę. Jednocześnie, choć ChatGPT wygląda spektakularnie, to nie bardzo wiadomo do czego praktycznie można go zastosować.

PAP: Jednak wrażenie, o którym Pan wspomniał, musi mieć jakieś podstawy. Co wyróżnia ChatGPT spośród podobnych programów?

PG: Co prawda nie wprowadzono żadnego nowego paradygmatu tworzenia takiego systemu, ale autorzy zrobili dwie rzeczy. Po pierwsze radykalnie zwiększono stopień skomplikowania struktury SI, oraz po drugie - ilość danych, wykorzystanych w procesie jej uczenia. Bardzo upraszczając - stworzono większy mózg i pozwolono mu uczyć się dłużej i z większej liczby źródeł.

PAP: Mimo tego postępu, który doprowadził do sławy, program nadal się myli. Czasami robi proste błędy, czasami mówi od rzeczy. Podobno pewnego razu podał przepis na sałatkę z bawełnianej koszulki.

PG: On robi dokładnie to, do czego został stworzony, czyli produkuje tekst. Kłopoty mogą się pojawić tam, gdzie trzeba rozumieć, o czym ten tekst traktuje. Program ten nie prowadzi żadnego wnioskowania, nie buduje sobie modeli rzeczywistości, nie próbuje zrozumieć świata. Jedyne co robi, to tworzy sekwencje słów, tak aby były podobne do innych tekstów, które już zna, np. do wpisów w Internecie. Oczywiście, nie bez pewnych ograniczeń. Firma OpenAI zatroszczyła się choćby o to, by trudno było ChatGPT napisać niestosowne wypowiedzi, choćby rasistowskie. Takie “zachowanie” spowodowało bowiem np. szybkie wyłączenie publicznego dostępu do wcześniejszego chatbota Tay firmy Microsoft. Takie zabezpieczenia tworzone są jednak ręcznie, a trudno tu jest wszystko przewidzieć.

Co do zasady niestety, nadal systemy te nie są dużo mądrzejsze od pierwszych prymitywnych chatbotów z lat 60-tych, które także potrafiły czasami zmylić ówczesnych użytkowników, udając człowieka. Na przykład system o nazwie ELIZA całkiem skutecznie podszywał się pod psychoanalityka.

PAP: Czy można to zmienić? Na przykład oprócz tego, że na gigantycznej liczbie tekstów, taki system mógłby uczyć też na innych danych, choćby na nagraniach wideo? Czy wtedy mógłby stworzyć sobie pewien model świata i bardziej „wiedział, o czym mówi”? Czy mógłby "nabrać życiowego doświadczenia”?

PG: Jest to możliwe i rzeczywiście takie próby są podejmowane. Samo zwiększenie ilości danych nie pozwoli jednak na rozwiązanie problemu z wiarygodnością wypowiedzi chatbota. W pracach nad takimi systemami SI pojawia się ten sam problem, z którym próbują sobie poradzić np. producenci autonomicznych samochodów. Można powiedzieć, że w 90 proc. przypadków auta takie sobie dobrze radzą, ale pozostałe 10 proc. stanowi o kilka rzędów wielkości trudniejsze zadanie, niż te poprzednie 90. Jednak nawet takie czasem mylące się systemy mogą znaleźć różne zastosowania.

PAP: Do czego więc może się nadawać, a do czego raczej nie?

PG: Bałbym się użycia go w charakterze internetowej wyszukiwarki. Byłby bardzo wygodny, ale myli się, czasami wręcz konfabuluje. Może jednak działać jako doskonały generator treści. Na przykład ktoś może dobrze wiedzieć, co chce przekazać, ale słabo zna język, w którym chciałby to napisać. System będzie mógł nadać odpowiednią formę nieskładnie napisanemu materiałowi. W podobny sposób może wspierać tłumaczenia. Co więcej, takie systemy potrafią już pisać proste programy komputerowe.

PAP: Jak to działa?

Już jakiś czas temu Microsoft, a dokładniej spółka córka tej firmy tj. GitHub, wprowadził usługę, opartą o technologię z której korzysta także ChatGPT, a która pozwala programistom “poprosić” o napisanie prostego algorytmu, którego akurat potrzebują. W wielu przypadkach taki wygenerowany automatycznie program rzeczywiście działa, choć niestety nie możemy tu obyć się bez każdorazowej weryfikacji jego poprawności przez człowieka. Mimo tego, i tak jest to genialne narzędzie, które może odciążyć informatyków od prostych, a żmudnych prac.

Skoro mowa o informatyce, potencjalnym polem zastosowania mogą być także gry komputerowe.

PG: W jaki sposób?

Taki system mógłby szczególnie dobrze działać tam, gdzie występuje dużo interakcji gracza z innymi, sterowanymi komputerowo postaciami. Dzisiaj znaczna część budżetu takiej gry jest przeznaczana na proste pisanie linijek możliwych dialogów. To żmudne, a efekt często nie jest najlepszy. Myślę, że ChatGPT świetnie by sobie z tym poradził, a ewentualne błędy może nawet dałoby się wykorzystać do zwiększenia realizmu postaci, które, tak jak w życiu, czasami by kłamały.

PAP: Na myśl przychodzi też marketing czy PR...

PG: To doskonałe narzędzie do tworzenia np. mailingów. Niestety, już i tak większość z nas dostaje dużo spamu, więc ten problem może się nasilić. Co więcej, taki program - co zauważyli nawet jego autorzy - może pomagać w pisaniu maili wyłudzających pieniądze. Obecnie łatwo jest taką wiadomość rozpoznać, jeśli jest na przykład napisana łamaną angielszczyzną, ale gdy ktoś zobaczy ładne zdania, może łatwiej dać się nabrać.

PAP: Czy taki program mógłby się dodatkowo uczyć, np. na analizie prac z psychologii, aby tworzyć teksty szczególnie dobrze manipulujące ludźmi? Może chętnie korzystałby z tego przemysł reklamowy czy wszelkiej maści propagandyści.

PG: To ciekawy problem. Nie wykluczam, że dałoby się to zrobić, choć nie byłoby to proste. Mówiąc o propagandzie, czy tzw. wojnie informacyjnej, to pamiętajmy, że dostępne już teraz narzędzia mogą posłużyć np. do generowania fałszywych tweetów w dowolnym języku. Wszystkim będzie się wydawało, że napisany przez trolla wpis pochodzi od rodowitego Ukraińca, Niemca czy Rosjanina - podczas autorem będzie ktoś inny. Zagrożenie ze strony tego typu narzędzi nie jest dostatecznie doceniane.

PAP: A czy ludzie - choćby dziennikarze - zaczną tracić pracę, skoro artykuł wymagający kilku godzin pracy ChatGPT napisze w 3 sekundy, a potem wystarczy go tylko sprawdzić?

PG: Ewentualnie mogą być zagrożone osoby, które produkują treści najmniej pożądane przez czytelników, takie które służą głównie pozycjonowaniu jakiejś strony w Internecie, a nie zawierają wartościowej zawartości. Często nisko opłacani ludzie piszą na zlecenia mnóstwo takich materiałów. Narzędzia, o których mówimy, mogą znaleźć zastosowanie w tym obszarze. Natomiast osoby, które zajmują się tworzeniem treści o wysokiej - czy nawet choćby tylko w miarę dobrej jakości, nie mają się raczej czego obawiać. Co więcej, może się nawet okazać, że takie programy będą wspierały ich pracę.

PAP: Uogólniając i biorąc pod uwagę możliwości sztucznej inteligencji, ale i obecne problemy - zapytam: czy jesteśmy u progu ery, kiedy SI będzie diagnozowała choroby, sterowała samochodami, statkami i samolotami, prowadziła naukowe badania czy wydawała w sądach wyroki?

PG: Mówimy teraz o tzw. “silnej” sztucznej inteligencji, która by w pełni zastępowała człowieka. Już w latach 60-tych, a potem 70-tych i 80-tych, mówiono, że jest ona tuż za progiem i powstanie za dekadę. Ta granica ciągle się jednak przesuwała na kolejną dekadę. Teraz, ze względu na potężne możliwości pracy z tekstem, o których mówimy, niektórzy twierdzą, że taka SI powstanie już za następnych 10 lat. Podobnie było z samochodami autonomicznymi. Wydawało się, że będą standardem już za 5 czy 10 lat, a tymczasem w pełni autonomicznie wciąż mogą jeździć tylko na wybranych odcinkach autostrad, czy też ew. co najwyżej pomóc w zaparkowaniu. Moim zdaniem to jeszcze nie ten moment i potrzebujemy tu rzeczywistego przełomu. Może nastąpi za 300 lat, może za 100, a może za 50?

Jednak cały czas zachodzi postęp. Nawet jeśli taka uniwersalna, “silna” sztuczna inteligencja szybko nie powstanie, to jestem przekonany, iż będziemy znajdować coraz więcej miejsc, w których te słabe, wyspecjalizowane metody SI - które pewnie nasi potomkowie nazwą prymitywnymi - mogą przejąć kolejne uciążliwe i męczące zadania od ludzi.

Nauka w Polsce, Marek Matacz

mat/ zan/

Fundacja PAP zezwala na bezpłatny przedruk artykułów z Serwisu Nauka w Polsce pod warunkiem mailowego poinformowania nas raz w miesiącu o fakcie korzystania z serwisu oraz podania źródła artykułu. W portalach i serwisach internetowych prosimy o zamieszczenie podlinkowanego adresu: Źródło: naukawpolsce.pl, a w czasopismach adnotacji: Źródło: Serwis Nauka w Polsce - naukawpolsce.pl. Powyższe zezwolenie nie dotyczy: informacji z kategorii "Świat" oraz wszelkich fotografii i materiałów wideo.

Czytaj także

  • 19.12.2024. Pokaz przygotowania i pieczenia pierniczków z mąki owadziej (świerszcz domowy, łac. Acheta domesticus) na Wydziale Biotechnologii i Hodowli Zwierząt, Zachodniopomorskiego Uniwersytetu Technologicznego w Szczecinie. PAP/Marcin Bielecki

    Szczecin/ Świąteczne pierniki z dodatkiem mąki ze świerszcza domowego

  • Fot. Adobe Stock

    Gdańsk/ Naukowcy chcą stworzyć model skóry, wykorzystując druk 3D

Przed dodaniem komentarza prosimy o zapoznanie z Regulaminem forum serwisu Nauka w Polsce.

newsletter

Zapraszamy do zapisania się do naszego newslettera