ChatGPT może wpływać na ludzkie reakcje dotyczące dylematów moralnych

Fot. Adobe Stock
Fot. Adobe Stock

Użytkownicy mogą nie doceniać stopnia, w jakim chatbot może wpłynąć na ich własne osądy moralne – wynika z eksperymentu przeprowadzonego przez duńskich i niemieckich naukowców.

Naukowcy zapytali ChatGPT (obsługiwany przez model przetwarzania języka sztucznej inteligencji Generative Pretrained Transformer 3), czy słuszne jest poświęcenie życia jednej osoby, aby uratować pięć innych. Odkryli, że ChatGPT napisał oświadczenia argumentujące zarówno za, jak i przeciw poświęceniu jednego życia, wskazując, że nie jest on stronniczy w kierunku określonej postawy moralnej.

Następnie naukowcy skonstruowali badanie, w którym 767 uczestników o średniej wieku 39 lat zostało poproszonych o dokonanie wyboru: czy poświęcić życie jednej osoby, aby ocalić pięć innych. Przed udzieleniem odpowiedzi uczestnicy przeczytali jedno z oświadczeń stworzonych przez ChatGPT, argumentujące za lub przeciw poświęceniu jednego życia, aby uratować pięć. Po udzieleniu odpowiedzi pytano uczestników, czy przeczytane przez nich stwierdzenie wpłynęło na ich odpowiedzi.

Wyniki badania sugerują, że na uczestników mogły mieć wpływ przeczytane wcześniej wypowiedzi. Badacze stwierdzili, że uczestnicy częściej uznawali poświęcenie jednego życia za uratowanie pięciu za akceptowalne lub nie do przyjęcia, w zależności od tego, czy czytane przez nich oświadczenie wygenerowane przez bota opowiadało się za czy przeciw poświęceniu.

Co ciekawe, 80 proc. uczestników stwierdziło, że na ich odpowiedzi nie miały wpływu przeczytane oświadczenia. Jednak autorzy badania uznali, że udzielone odpowiedzi - wbrew temu, co sądzili sami odpowiadający - nadal bardziej zgadzały się z moralnym stanowiskiem wypowiedzi, z którą się zapoznali, niż ze stanowiskiem przeciwnym. Wskazuje to, że uczestnicy mogli nie docenić wpływu wypowiedzi bota na ich własne osądy moralne.

Badacze wskazują, że potencjał chatbotów do wpływania na ludzkie osądy moralne jest duży. Podkreślają oni potrzebę edukacji, aby pomóc ludziom lepiej zrozumieć sztuczną inteligencję. Proponują, aby inwestować w badania, które pomogą zaprojektować chatboty w taki sposób, by odmawiały odpowiedzi na pytania wymagające oceny moralnej, albo odpowiadały na te pytania dostarczając wielu argumentów i zastrzeżeń.

Wyniki badania zostały opublikowane na łamach Scientific Reports. (PAP)

Autorka: Urszula Kaczorowska

uka/ bar/

Fundacja PAP zezwala na bezpłatny przedruk artykułów z Serwisu Nauka w Polsce pod warunkiem mailowego poinformowania nas raz w miesiącu o fakcie korzystania z serwisu oraz podania źródła artykułu. W portalach i serwisach internetowych prosimy o zamieszczenie podlinkowanego adresu: Źródło: naukawpolsce.pl, a w czasopismach adnotacji: Źródło: Serwis Nauka w Polsce - naukawpolsce.pl. Powyższe zezwolenie nie dotyczy: informacji z kategorii "Świat" oraz wszelkich fotografii i materiałów wideo.

Czytaj także

  • Fot. Adobe Stock

    NASA: asteroida o wielkości boiska piłkarskiego minie we wtorek Ziemię

  • Fot. Adobe Stock

    Portugalia/ W turystycznych regionach pojawiły się komary przenoszące choroby tropikalne

Przed dodaniem komentarza prosimy o zapoznanie z Regulaminem forum serwisu Nauka w Polsce.

newsletter

Zapraszamy do zapisania się do naszego newslettera