Fot. Adobe Stock

Powstał program do sprawdzania, czy rozmawialiśmy online z prawdziwą osobą

Prototypowy program do sprawdzania, czy przez kamerę online rozmawialiśmy z prawdziwą osobą, a nie deepfejkiem, opracowali naukowcy z ośrodka badawczo-rozwojowego IDEAS NCBR. Rozwiązanie ma służyć walce z oszustwami i ochronie wizerunku w sieci.

  • Źródło: Adobe Stock
    Technologia

    NASK: rośnie liczba cyberprzestępstw z wykorzystaniem AI

    W internecie pojawia się coraz więcej przestępstw typu deepfake - ostrzegają eksperci z instytutu badań Naukowej i Akademickiej Sieci Komputerowej. Technika oszustw polega na wykorzystaniu głosu i twarzy znanych osób, obrobionych przy pomocy sztucznej inteligencji.

Najpopularniejsze

  • Fot. Adobe Stock

    Współtwórca Bielika: w modelach AI jest obecna cenzura, nie ufajmy im ślepo

  • Prof. Grewiński: młodzi są coraz bardziej samotni

  • Raport: relacje młodych z technologią są dużo bardziej złożone, niż wynikałoby to z debaty publicznej

  • Instytut Psychiatrii i Neurologii rekrutuje uczestników do badania wczesnego wykrywania choroby Parkinsona

  • Badanie: doświadczenia z dzieciństwa zmieniają sposób, w jaki pomagamy

  • Fot. Adobe Stock

    Sztuczna inteligencja zubaża ludzką komunikację i myślenie

  • Powstała nowa aplikacja pomocna w problemach z przedwczesnym wytryskiem

  • Mobbing lubi open space

  • Odżywki przedtreningowe mogą prowadzić do niebezpiecznego niedoboru snu

  • Składnik morwy ułatwia regenerację mieliny

Fot. Adobe Stock

Naukowcy sprawdzili, skąd się biorą błędne lub agresywne odpowiedzi chatbotów

Dlaczego duże modele językowe udzielają czasem błędnych, szkodliwych lub agresywnych odpowiedzi? Nawet ich bardzo wąskie i pozornie kontrolowane modyfikacje mogą prowadzić do nieprzewidzianych skutków ubocznych - wynika z publikacji w Nature. Jedną z jej autorek jest badaczka Politechniki Warszawskiej.

newsletter

Zapraszamy do zapisania się do naszego newslettera