Emocje napędzają wirale, a naukowcy wskazują szczepionki poznawcze

Fot. Adobe Stock
Fot. Adobe Stock

Wirale, takie jak fałszywe obrazy komety 3I/ATLAS, pokazują, jak emocje i prestiż źródła potrafią przebić dowód. Zespoły z Politechniki Warszawskiej, UJ i SWPS opisują mechanizmy polaryzacji opinii oraz skuteczność treningów rozpoznawania manipulacji.

W ostatnich tygodniach widzieliśmy, jak zwykła kometa staje się statkiem kosmicznym. Wątek komety 3I/ATLAS, w połączeniu z hasłem „międzygwiezdna”, idealnie ilustruje, jak działa dzisiejszy wiral. Wystarczy dorobić naukową etykietę (im „większe” logo, tym lepiej) i wyostrzyć obraz tak, by przypominał techniczny obiekt. Tymczasem oficjalne ujęcia z Hubble’a i z misji ESA pokazują rozmytą komę (pyłowo-gazowa atmosfera otaczająca jądro komety) i ogon — dokładnie tak, jak zwykle wyglądają komety w realnych danych, zwłaszcza fotografowane z dużej odległości i śledzone na tle smug gwiazd. To nie okręt, tylko pył i lód ogrzane Słońcem, co widać na materiałach z obserwatoriów, animacjach ExoMars i komunikatach z Gemini/NOIRLab. Takie obrazy są jednak mało efektowne, a więc mniej „klikalne”. Emocja wygrywa z dowodem, a nieuprawnione odwołanie do autorytetu (np. logotypu agencji) działa jak skrót myślowy, który wzmacnia wiarę w atrakcyjny wymysł.

Ten stan rzeczy niepokoi naukowców — i to nie tylko za granicą. W badaniu z Politechniki Warszawskiej zaproponowano model dwóch baniek opinii, połączonych mostami – kanałami realnego wpływu (wspólni znajomi, lokalni liderzy, media, fora). Model nie ocenia, kto ma rację, a jedynie pokazuje jak rozprzestrzeniają się opinie (Physical Review E ).

Weźmy na przykład spór o szczepienia. Gdy mosty są słabe, obozy pro- i antyszczepionkowy mówią głównie do swoich członków. Artykuły opiniotwórcze i prześmiewcze memy krążą wewnątrz grup, a „tamtych” widzi się jedynie przez złośliwe, pozbawione kontekstu cytaty lub zrzuty ekranu. Sama współobecność w tej samej przestrzeni nie osłabia więc dezinformacji. Gdy mosty stają się bardzo silne (jedna strona dominuje zasięgiem i tonem), pojawia się próg, po którego przekroczeniu cały system skokowo zlepia się w jeden, ostry, choć niekoniecznie prawdziwy przekaz. Agresywna, jednostronna kampania może w modelu pchnąć system w niepożądany skok, także w stronę nieprawdy.

Lepiej tworzyć wiele mniejszych, wiarygodnych mostów niż inwestować w jedną krzykliwą kampanię, która wywołuje kontrreakcję. Przy asymetrii (jedna grupa podziwia drugą, a druga się odpycha) pojawiają się oscylacje: fale trendów i kontrtrendów – np. znane z polityki cykle „afera – sprostowanie – kolejna afera”. To tłumaczy, czemu spory o szczepienia falują i czemu krótkie, gorące kampanie gasną bez trwałego efektu. Wszystko to przypomina zjawiska z fizyki (przejścia progowe) i jest opisane tą samą matematyką. Najważniejszy wniosek praktyczny jest jednak społeczny: nie chodzi o „więcej kontaktu za wszelką cenę”, tylko o mądre mosty – takie, które łączą właściwych ludzi we właściwy sposób i nie pchają układu w skok do skrajności.

Na poziomie psychologicznym coraz lepiej opisana jest tzw. inokulacja, czyli coś w rodzaju szczepionki poznawczej. To krótkie ćwiczenia podawane z wyprzedzeniem, które uczą rozpoznawać typowe chwyty manipulacji (fałszywy autorytet, wybiórcze dane, granie strachem), zanim zobaczymy zafałszowany przekaz. Przegląd badań w Journal of the American Medical Association podkreśla, że takie prewencyjne uodparnianie najczęściej działa skutecznie, choć efekt słabnie w czasie, a osoby już mocno „zakażone” fałszem reagują słabiej. Stąd ciągła potrzeba podawania dawek przypominających (boosterów) tej „szczepionki”.

Przykładem realnej, prostej inokulacji są cykliczne akcje policji i samorządów pod hasłem „Babciu, Dziadku… Nie daj się oszukać”. Są to spotkania z seniorami uprzedzające typowe sztuczki („na wnuczka”, „na policjanta”), zanim do seniora zadzwoni rzekomy krewny lub funkcjonariusz. Gdy później pojawi się taki telefon, odbiorca częściej rozpoznaje schemat i odkłada słuchawkę. W celu potrzymania efektu stosuje się „dawki przypominające” w postaci krótkich komunikatów lub ulotek.

Na Uniwersytecie Jagiellońskim wykazano, że inokulacja potrafi zmniejszyć tzw. efekt ciągłego wpływu, czyli upór odbiorcy przy fałszu, utrzymujący się nawet po sprostowaniu błędnej informacji. Wyobraźmy sobie, że ktoś czyta alarmujący wpis: „Szczepionka X została wycofana”. I choć później zobaczy sprostowanie, pierwsze wrażenie zostaje z nim na długo. Okazuje się, że po krótkim uprzedzeniu o technikach manipulacji korekta informacji trafia głębiej i rzadziej przegrywa z tzw. pierwszym strzałem.

Z kolei zespół SWPS sprawdził wersję inokulacji w grze o szczepieniach. Gracz wciela się w twórcę treści i uczy się rozpoznawać, a nawet stosować „od środka” typowe sztuczki, takie jak podszywanie się pod eksperta, sianie wątpliwości czy trollowanie. Po takim doświadczeniu uczestnicy lepiej identyfikowali chwyty i oceniali „fejki” jako mniej wiarygodne, choć sama gra nie zawsze przekładała się na decyzje w realnym życiu. To sygnał, że oprócz treningu technik potrzebne jest dopasowanie do sytuacji i powtarzanie bodźców.

Inny polski zespół (SGGW i SWPS) przetestował interwencję opartą na uświadamianiu sobie źródła dezinformacji (np. rosyjskiej propagandy). Uczestnicy dostawali krótką informację: „Ta narracja bywa używana przez rosyjskie operacje wpływu. Zwróć uwagę na…”. W pierwszym badaniu widać było poprawę postaw i większą ostrożność, lecz w drugim efekt się nie powtórzył, co uczciwie pokazuje ograniczenia i wrażliwość wyników na inne, nieuwzględnione w badaniu czynniki.

Warto wspomnieć też o uwarunkowaniach prawnych dotyczących treści generowanych przez sztuczną inteligencję. Artykuł 50 właśnie wdrażanego w UE „Aktu AI” (rozporządzenie 2024/1689) wymaga m.in. jasnego informowania, że mamy do czynienia z systemem AI, wyraźnego oznaczania treści wygenerowanych lub istotnie zmienionych przez AI (w tym tzw. deepfake’ów) oraz informowania o użyciu rozpoznawania emocji. Celem tych uregulowań jest zapewnienie odbiory wiedzy, co czyta, a twórcom i platformom wspólnej praktyki oznaczania treści. Akt jest wdrażany w latach 2024–2026; równolegle rozwijane są kodeksy praktyk, co ma ułatwić stosowanie tych zasad w codziennej komunikacji.

Krzysztof Petelczyc (PAP)

kmp/ bar/

Fundacja PAP zezwala na bezpłatny przedruk artykułów z Serwisu Nauka w Polsce pod warunkiem mailowego poinformowania nas raz w miesiącu o fakcie korzystania z serwisu oraz podania źródła artykułu. W portalach i serwisach internetowych prosimy o zamieszczenie podlinkowanego adresu: Źródło: naukawpolsce.pl, a w czasopismach adnotacji: Źródło: Serwis Nauka w Polsce - naukawpolsce.pl. Powyższe zezwolenie nie dotyczy: informacji z kategorii "Świat" oraz wszelkich fotografii i materiałów wideo.

Czytaj także

  • Adobe Stock

    Dojrzali doktoranci: wiemy, po co to robimy

  • Adobe Stock

    Nie lekceważmy popularyzacji

Przed dodaniem komentarza prosimy o zapoznanie z Regulaminem forum serwisu Nauka w Polsce.

newsletter

Zapraszamy do zapisania się do naszego newslettera