Nauka dla Społeczeństwa

19.04.2024
PL EN
20.10.2021 aktualizacja 20.10.2021

Polacy uczą największą maszynę na świecie

LHC, źródło: CERN LHC, źródło: CERN

Naukowcy opracowują algorytmy, dzięki którym maszyny będą pomagać fizykom, aby nie ugrzęźli w nieskończonej ilości danych. Inżynierowie z Politechniki Warszawskiej uczą ALICE – jedno z olbrzymich urządzeń pracujących w CERN – zwracania uwagi tylko na interesujące badaczy przypadki zderzeń cząstek.

Największe urządzenie badawcze na świecie, Wielki Zderzacz Hadronów (LHC, Large Hadron Collider), w jednej chwili dostarcza miliony informacji. Tylko jeden eksperyment ALICE (A Large Ion Collider Experiment, Wielki Eksperyment Zderzacza Jonów), szukający kluczowych odpowiedzi w kwestii cząstek dziwnych, wytwarza w każdej sekundzie ponad 3 Terabajty danych pomiarowych. Jak wśród nich znaleźć przypadki nadające się do dalszej analizy, które nie poddają się dotychczas znanym prawom fizyki?

„Chcemy szybciej poznać tajemnice Wszechświata? Musimy nauczyć maszyny pomagać fizykom, aby nie ugrzęźli w nieskończonej ilości danych. Wykorzystując opracowane przez nas algorytmy sprawimy, że ALICE będzie zwracać uwagę tylko na interesujące naukowców przypadki. Są to przypadki, które powodują rozdźwięk pomiędzy obserwacjami a znanymi modelami teoretycznymi. Aby je wskazać, musimy jednak znać rezultaty uzyskiwane przez modele teoretyczne, a ich symulowanie wymaga aktualnie ogromnych mocy obliczeniowych” – tłumaczy prof. Tomasz Trzciński, kierujący pracami zespołu ds. uczenia maszynowego w Instytucie Informatyki na Wydziale Elektroniki i Technik Informacyjnych (WEiTI) PW, cytowany w informacji prasowej przesłanej PAP.

Jego zespół skupiał się głównie na wykrywaniu anomalii podczas zachodzących zderzeń. Prace również automatyzują proces identyfikacji typu cząstek i analizy jakości danych. Do opracowania nowych metod uczenia maszynowego naukowcy wykorzystali sztuczne sieci neuronowe oraz klasyczne metody takie, jak maszyny wektorów nośnych czy lasy losowe. Okazało się, że 75 proc. wszystkich zdarzeń maszyna może sama przeanalizować, uzyskując precyzję wyników na poziomie większym, niż 95 proc.

Naukowcy WEiTI PW oraz Wydziału Fizyki, w tym - z kierującym zespołem z PW dr. inż. Łukaszem Graczykowskim, zaprojektowali również na potrzeby CERN metody szybszej symulacji zderzeń, niezbędnych do analiz fizycznych, jak również do kontroli jakości danych i poprawnego ustawienia detektorów. Dotychczas stosowane rozwiązania mogą być skutecznie zastąpione przez modele generatywne, implementowane m.in. przez doktorantów Kamila Deję oraz Jana Dubińskiego przy użyciu sztucznej sieci neuronowej, a więc jednej z najpopularniejszych metod wykorzystywanej w uczeniu maszynowym.

„Oprócz rozwiązań opracowanych z myślą o zwiększeniu efektywności wykonywania codziennych zadań techników i naukowców pracujących przy Wielkim Zderzaczu Hadronów, nasze propozycje dotyczą również popularyzacji otrzymywanych wyników” – mówi prof. Jarosław Arabas, dyrektor Instytutu Informatyki WEiTI PW.

Dodaje, że nowe sposoby wizualizacji danych, oparte o technologie Virtual Reality (VR), wykorzystywane są już podczas zajęć z uczniami z całego świata w ramach CERN Physic MasterClass. Za tymi pracami stoi zespół wywodzący się z Zakładu Grafiki Komputerowej Instytutu, kierowany przez prof. Przemysława Rokitę, inicjatora współpracy Instytutu Informatyki z CERN i wieloletniego członka ALICE”.

Prace finansowane są w ramach projektów NCN.

PAP – Nauka w Polsce

kol/ zan/

Przed dodaniem komentarza prosimy o zapoznanie z Regulaminem forum serwisu Nauka w Polsce.

Copyright © Fundacja PAP 2024