Regulamin forum

14.04.2021 aktualizacja: 14.04.2021

Forum Nauki w Polsce jest moderowane. Komentarze publikowane są dopiero po akceptacji przez moderatora.

Do publikacji mogą nie zostać dopuszczone komentarze, które - w ocenie moderatora - zawierają:

  • treści zabronione prawem, naruszające dobra osobiste osób trzecich, godność, prywatność, zawierające groźby, obelgi;
  • treści naruszające powszechnie uznawane zasady etyczne i zasady kultury osobistej, uważane za obelżywe, wulgarne, obsceniczne, agresywne, dyskryminujące, treści wzywające do nienawiści rasowej, wyznaniowej lub etnicznej;
  • treści niezgodne z przepisami prawa, np. autorskiego lub propagujące działania niezgodne z prawem;
  • treści reklamowe, spam;
  • treści rozpowszechniające dane osobowe, teleadresowe itp.;
  • linki prowadzące do stron, w których propagowane są treści niezgodne z tym regulaminem;
  • treści niezwiązane z zakresem tematycznym portalu Nauka w Polsce;
  • treści, w których formułowane są bezpodstawne oskarżenia wobec naukowców, instytucji naukowych;
  • treści propagujące pseudonaukę, dezinformujące.

Osoby nagminnie łamiące powyższe zasady mogą zostać wykluczone z dyskusji na forum.

Najpopularniejsze

  • Fot. Adobe Stock

    Współtwórca Bielika: w modelach AI jest obecna cenzura, nie ufajmy im ślepo

  • Prof. Grewiński: młodzi są coraz bardziej samotni

  • Raport: relacje młodych z technologią są dużo bardziej złożone, niż wynikałoby to z debaty publicznej

  • Instytut Psychiatrii i Neurologii rekrutuje uczestników do badania wczesnego wykrywania choroby Parkinsona

  • Badanie: doświadczenia z dzieciństwa zmieniają sposób, w jaki pomagamy

  • Fot. Adobe Stock

    Sztuczna inteligencja zubaża ludzką komunikację i myślenie

  • Powstała nowa aplikacja pomocna w problemach z przedwczesnym wytryskiem

  • Odżywki przedtreningowe mogą prowadzić do niebezpiecznego niedoboru snu

  • Składnik morwy ułatwia regenerację mieliny

  • Pomidory, marchew i sałata magazynują farmaceutyki w liściach

Fot. Adobe Stock

Naukowcy sprawdzili, skąd się biorą błędne lub agresywne odpowiedzi chatbotów

Dlaczego duże modele językowe udzielają czasem błędnych, szkodliwych lub agresywnych odpowiedzi? Nawet ich bardzo wąskie i pozornie kontrolowane modyfikacje mogą prowadzić do nieprzewidzianych skutków ubocznych - wynika z publikacji w Nature. Jedną z jej autorek jest badaczka Politechniki Warszawskiej.

newsletter

Zapraszamy do zapisania się do naszego newslettera