Większość recenzentów publikacji naukowych korzysta już ze sztucznej inteligencji, a polityki wydawnicze jeszcze nie uwzględniają tych zmian. Należy to jak najszybciej uregulować - wynika z raportu wydawnictwa Frontiers.
Jego autorzy przekonują, że narzędzia oparte na sztucznej inteligencji (AI) stały się elementem codziennej praktyki procesu recenzyjnego. Do ich korzystania przyznaje się obecnie 53 proc. recenzentów. Technologia ta upowszechnia się tak szybko, że konieczne stało się wprowadzenie zasad zapewniających przejrzystość, rzetelność i równość w systemie oceny publikacji naukowych.
Raport bazuje na wynikach globalnego badania przeprowadzonego wśród 1645 aktywnych naukowców z całego świata. Zebrane dane pokazały, że środowisko chętnie korzysta z AI, chce to robić w sposób świadomy i odpowiedzialny. Obecnie sztuczna inteligencja najczęściej wspiera recenzentów w redagowaniu opinii lub streszczaniu wyników badań. Autorzy raportu uważają jednak, że potencjał tej technologii jest znacznie większy, lecz na razie niewykorzystany.
„Sztuczna inteligencja już teraz poprawia efektywność i przejrzystość procesu recenzyjnego, ale jej największe możliwości są dopiero przed nami. Przy odpowiednich zasadach zarządzania, przejrzystości i szkoleniach może stać się ważnym partnerem w podnoszeniu jakości badań i zaufania do dorobku naukowego” - podkreśliła Elena Vicario, dyrektorka ds. integralności badań w Frontiers.
Z przeprowadzonego badania wynika, że najbardziej zainteresowani zaawansowanym wykorzystaniem AI są naukowcy na wczesnym etapie kariery - w tej grupie odsetek osób sięgających po nią w swojej pracy sięga 87 proc. Chętnie stosują ją także dynamicznie rozwijające się regiony, takie jak Chiny, gdzie posługuje się nią 77 proc. badaczy oraz Afryka - 66 proc.
Respondenci na całym świecie wskazują, że sztuczna inteligencja pomaga im m.in. ograniczyć obciążenie pracą i usprawnić komunikację, choć jednocześnie zgodnie podkreślają potrzebę jasnych i jednolitych zasad jej stosowania.
W odpowiedzi na te oczekiwania Frontiers przedstawiło zestaw rekomendacji skierowanych do wydawców, instytucji naukowych, agencji finansujących badania oraz twórców narzędzi technologicznych. Obejmują one m.in. obowiązek ujawniania wykorzystania AI, włączenie kompetencji związanych ze sztuczną inteligencją do systemu szkoleń, wzmocnienie standardów nadzoru i integralności badań, poprawę możliwości ustalenia, skąd pochodzą dane wykorzystywane przez AI, oraz zapewnienie wszystkim badaczom równego dostępu do wiarygodnych narzędzi.
„Sztuczna inteligencja zmienia sposób, w jaki powstają i są oceniane publikacje naukowe. Nasz raport jest wezwaniem do działania dla całego środowiska badawczego. Przy spójnych zasadach i odpowiedzialnym wykorzystaniu AI może wzmocnić rzetelność badań i przyspieszyć odkrycia” - zaznaczyła Kamila Markram, prezeska i współzałożycielka Frontiers.
Katarzyna Czechowicz (PAP)
kap/ agt/
Fundacja PAP zezwala na bezpłatny przedruk artykułów z Serwisu Nauka w Polsce pod warunkiem mailowego poinformowania nas raz w miesiącu o fakcie korzystania z serwisu oraz podania źródła artykułu. W portalach i serwisach internetowych prosimy o zamieszczenie podlinkowanego adresu: Źródło: naukawpolsce.pl, a w czasopismach adnotacji: Źródło: Serwis Nauka w Polsce - naukawpolsce.pl. Powyższe zezwolenie nie dotyczy: informacji z kategorii "Świat" oraz wszelkich fotografii i materiałów wideo.