Fot. Adobe Stock

Współautorka benchmarku OneRuler: nie pokazaliśmy wcale, że język polski jest najlepszy do promptowania

Media obiegła niedawno wiadomość, że „język polski jest najlepszy do promptowania”. To nie jest wniosek z naszych badań – dementuje Marzena Karpińska z Microsoft, współautorka pracy, z której polskie media zbyt pochopnie wyciągnęły taki wniosek.

  • Adobe Stock
    Świat

    Belgia/ Coraz więcej przypadków nadużywania ChatGPT na uniwersytetach

    Trzy lata po debiucie ChatGPT generatywna sztuczna inteligencja stała się powszechnym narzędziem w środowisku akademickim, a wykrywanie jej nadużyć pozostaje dużym problemem – pisze belgijski dziennik „De Morgen”.

  • Adobe Stock
    Technologia

    Kanada/ Lepiej nie używać ChatuGPT do diagnozowania pacjentów

    ChatGPT nie może być użyty jako narzędzie diagnostyczne w medycynie, bo w ponad połowie przypadków się myli – podsumowali kanadyjscy naukowcy z Uniwersytetu Zachodniego Ontario po przetestowaniu modelu na przypadkach pacjentów. ChatGPT umie jednak pisać czytelne odpowiedzi.

  • Fot. Adobe Stock
    Technologia

    Debata/ Nie wiemy, czy AI będzie lepsza niż naukowcy, ale naukowcy będą lepsi z AI

    Na razie naukowcy są jak stażyści, którzy czasem się mylą. Czy AI będzie kiedyś mądrzejsze niż naukowcy - nie wiadomo, ale wiadomo, że naukowcy będą mądrzejsi z wykorzystaniem AI niż bez niej - uważa prof. Aleksander Mądry.

  • Siedziba główna Open AI w San Francisco, Kalifornia (USA) - widok z okna. EPA/JOHN G. MABANGLO
    Ludzie

    Polak głównym naukowcem w OpenAI

    Jakub Pachocki obejmie stanowisko głównego naukowca w firmie OpenAI specjalizującej się w dziedzinie sztucznej inteligencji. Polak był odpowiedzialny m.in. za stworzenie modelu GPT-4.

  • Fot. Adobe Stock
    Zdrowie

    ChatGPT oblał polski egzamin z chorób wewnętrznych

    Nawet najbardziej wyrafinowane algorytmy i technologie nie mogą diagnozować i leczyć chorób bez udziału człowieka - stwierdzili naukowcy z Collegium Medicum UMK, po tym, jak w zaprojektowanym przez nich badaniu ChatGPT „oblał” egzamin z interny.

  • Fot. Adobe Stock
    Świat

    ChatGPT kłamie i oszukuje, gdy jest pod presją zarabiania pieniędzy

    Sztuczna inteligencja oszukiwała i wykorzystywała niedozwolone poufne informacje, żeby zarabiać dla fikcyjnej instytucji finansowej. Podobnie jak ludzie, ChatGPT w „stresie” kłamie częściej.

  • Technologia

    Powstanie pierwszy polski otwarty wielki model językowy (PLLuM) i inteligentny asystent

    Polski wielki model językowy PLLuM, wytrenowany na treściach głównie polskojęzycznych, oraz oparty na nim inteligentny asystent - powstaną w ramach współpracy sześciu polskich jednostek naukowych. “Nie stać nas na to, by zostawać w tyle”- komentują przedstawiciele projektu.

  • Źródło: Adobe Stock
    Życie

    Biolog odpytuje chatbota i mówi mu: sprawdzam

    ChatGPT w przyszłości może być rzetelnym źródłem informacji, ale na razie części podawanych przez niego informacji nie można ufać - wynika z "testu", jaki przeprowadził naukowiec z PAN. Zwraca on uwagę na potrzebę lepszej kontroli procesu trenowania chatbota.

  • Fot. Adobe Stock
    Technologia

    Polscy naukowcy opracowali model językowy do wytwarzania długich tekstów

    Polscy badacze opracowali duży model językowy LongLLaMA, oparty na oprogramowaniu OpenLLaMA, stworzonym przez Meta. Jest on dostępny dla każdego w internecie.

Najpopularniejsze

  • Fot. Adobe Stock

    Współtwórca Bielika: w modelach AI jest obecna cenzura, nie ufajmy im ślepo

  • Polskie „nanokwiaty” pomogą w leczeniu groźnej choroby kości

  • Prof. Grewiński: młodzi są coraz bardziej samotni

  • W piątek 20 marca przywitamy astronomiczną wiosnę

  • Raport: relacje młodych z technologią są dużo bardziej złożone, niż wynikałoby to z debaty publicznej

  • Fot. Adobe Stock

    Sztuczna inteligencja zubaża ludzką komunikację i myślenie

  • Pomidory, marchew i sałata magazynują farmaceutyki w liściach

  • Powstała nowa aplikacja pomocna w problemach z przedwczesnym wytryskiem

  • Odżywki przedtreningowe mogą prowadzić do niebezpiecznego niedoboru snu

  • Składnik morwy ułatwia regenerację mieliny

Fot. Adobe Stock

Naukowcy sprawdzili, skąd się biorą błędne lub agresywne odpowiedzi chatbotów

Dlaczego duże modele językowe udzielają czasem błędnych, szkodliwych lub agresywnych odpowiedzi? Nawet ich bardzo wąskie i pozornie kontrolowane modyfikacje mogą prowadzić do nieprzewidzianych skutków ubocznych - wynika z publikacji w Nature. Jedną z jej autorek jest badaczka Politechniki Warszawskiej.

newsletter

Zapraszamy do zapisania się do naszego newslettera