Ekspert: gdy ponad połowę ruchu w sieci generują boty – dbajmy o prawdziwe relacje

Dr Nikodem Sarna, materiały własne.
Dr Nikodem Sarna, materiały własne.

Już 51 proc. ruchu w światowym internecie jest generowana przez boty. W obliczu związanych z tym zagrożeń, takich jak cyberoszustwa i dezinformacja, warto dbać o relacje z ludźmi w świecie rzeczywistym - uważa ekspert ds. marketingu cyfrowego, dr Nikodem Sarna z ALK.

- Wraz z rozwojem sztucznej inteligencji, a w szczególności generatywnej AI (od ChatuGPT 3), proporcja ruchu w internecie generowanego przez ludzi w stosunku do tego generowanego przez boty zmieniła się w ostatnich latach na korzyść botów – generują one już ponad połowę ruchu w sieci. W tym sensie można powiedzieć, że już większa część aktywności w internecie jest „martwa”, bo nie tworzą jej ludzie – powiedział PAP dr Nikodem Sarna, ekspert z Katedry Marketingu Akademii Leona Koźmińskiego, który bada, jak technologia zmienia ludzkie zachowania i kulturę w sieci.

Badacz powołał się na analizę „Imperva Bad Bot Report”, zgodnie z którą w ubiegłym roku 51 proc. ruchu w sieci (czyli m.in. odsłon stron internetowych) generowały boty.

Botami można nazwać oprogramowanie, które automatycznie wykonuje zlecone zadania w środowisku cyfrowym. Mogą to być narzędzia, które automatycznie piszą posty, publikują artykuły albo symulują zachowanie użytkownika na stronie internetowej. Boty mogą też wykonywać bardziej sprecyzowane akcje np. mające na celu przełamanie zapór cyberbezpieczeństwa.

Dr Sarna wyjaśnił, że nie wszystkie boty stanowią zagrożenie. Praca niektórych z nich jest niezbędna dla działania wyszukiwarek internetowych, portali społecznościowych, filtrów antyspamowych czy służb chroniących bezpieczeństwo w internecie.

O ile jednak „dobre boty” generują 14 proc. ruchu w sieci, o tyle „złe boty” – znacznie więcej, bo aż 37 proc.

Dr Sarna podał przykład, że „złe boty” mogą np. w nieautoryzowany sposób pobierać treści ze stron, są używane w cyberprzestępczości (np. do phishingu - wyłudzania w internecie wrażliwych danych), ale służą też do siania dezinformacji i budowania postprawdy. W ten sposób na działalności „złych botów” mogą korzystać grupy przestępcze, podmioty prowadzące działalność dezinformacyjną (np. farmy trolli - grupy użytkowników publikujących komentarze na czyjeś zlecenie) czy firmy - choćby np. tworzące systemy AI – które używają botów do nielegalnego pozyskiwania danych na potrzeby uczenia swoich modeli.

Metody odróżniania botów od prawdziwych użytkowników już istnieją. Są potrzebne choćby po to, żeby powstrzymywać skoordynowane ataki typu DDoS (serwer zapychany jest ogromną liczbą jednoczesnych zapytań, co blokuje jego działanie) czy składanie w firmach fikcyjnych zamówień. Boty jednak coraz lepiej udają ludzi, więc „wykrywacze botów” muszą być nieustannie doskonaleni. - To jak zabawa w kotka i myszkę – wyjaśnił dr Sarna.

Trzeba też jednak mieć na uwadze, że nie wszystkim platformom i wydawcom zależy na usuwaniu ze swoich stron aktywności botów, bo komunikaty formułowane przez algorytm nieraz generują większe zaangażowanie odbiorców niż np. materiały tworzone przez żywych użytkowników. - Walka toczy się o naszą uwagę i zaangażowanie. Moim zdaniem jako społeczeństwo przegrywamy ją. Należy rozważyć stosowanie rozwiązań systemowych: częścią odpowiedzialności za treści tworzone przez boty należy obciążyć dostawców platform internetowych - uważa dr Sarna.

Dopóki jednak nie ma takich rozwiązań, my, użytkownicy internetu, musimy umieć odróżniać treści wiarygodne od tych, które są manipulacją.

Dr Sarna poradził, by zawsze sprawdzać, czy znamy osobę lub instytucję, która publikuje daną informację i czy to użytkownik wiarygodny. Poleca też, by „uczyć” algorytmy wyświetlania nam wartościowych treści - np. klikając częściej w materiały pochodzące od znanych wydawców, za którymi stoją prawdziwe redakcje. - Poświęćmy chociaż sekundę na refleksję, zwłaszcza gdy widzimy treści nacechowane emocjonalnie czy z clickbaitowymi tytułami - wymienił ekspert.

- Podsumowując: przyda się nam uważność, sprawdzanie źródeł i chwila autorefleksji, czy nie padamy ofiarą jakiejś manipulacji - zaznaczył. Doradza, by ograniczać korzystanie z portali społecznościowych.

Naukowiec wychodzi z założenia, że w zachowaniu cyfrowego bezpieczeństwa ważne jest to, by dbać o prawdziwe relacje, w świecie rzeczywistym. - Dużo łatwiej paść ofiarą dowolnego rodzaju cyberoszustwa będąc osobą samotną, pozbawioną wsparcia bliskich. Kiedy ma się wokół siebie grono akceptujących ludzi, ma się też dostęp do różnych głosów i źródeł informacji. A i dobre samopoczucie jest czynnikiem, który daje warstwę odporności na dezinformację - ocenił ekspert z ALK.

Ludwika Tomala (PAP)

lt/ bar/ amac/

Fundacja PAP zezwala na bezpłatny przedruk artykułów z Serwisu Nauka w Polsce pod warunkiem mailowego poinformowania nas raz w miesiącu o fakcie korzystania z serwisu oraz podania źródła artykułu. W portalach i serwisach internetowych prosimy o zamieszczenie podlinkowanego adresu: Źródło: naukawpolsce.pl, a w czasopismach adnotacji: Źródło: Serwis Nauka w Polsce - naukawpolsce.pl. Powyższe zezwolenie nie dotyczy: informacji z kategorii "Świat" oraz wszelkich fotografii i materiałów wideo.

Czytaj także

  • Fot. Adobe Stock

    Śląskie/ Akademia Humanitas rozpoczyna projekt badawczy nt. hejtu rówieśniczego i dezinformacji

  • Fot. Adobe Stock

    Ekspertka: jąkanie to nie choroba, a inny sposób komunikacji

Przed dodaniem komentarza prosimy o zapoznanie z Regulaminem forum serwisu Nauka w Polsce.

newsletter

Zapraszamy do zapisania się do naszego newslettera