Bałtyk z klocków Lego

Obszar Morza Bałtyckiego można podzielić komputerowo na małe „klocki”, w których łatwo i tanio można analizować wiele parametrów związanych ze składem chemicznym i biologicznym wody, jej temperaturą, promieniowaniem słonecznym. Maciej Janecki z Instytutu Oceanologii PAN ocenia wpływ zmian klimatycznych na środowisko morskie Bałtyku. Czym jest modelowanie komputerowe i czy może ono zastąpić morskie wyprawy badawcze?

„Dla mnie Bałtyk to układanka z klocków Lego. Dzielimy Bałtyk np. na 1000 klocków, gdzie każdy klocek ma wymiary 2 na 2 km, a głębokość 5 m. W naszym modelu aktualnie mają one 600 na 640 m i to daje rozdzielczość około 2,3 km. W takim klocku modelujemy np. średnią wartość temperatury oraz parametry biogeochemiczne, np. stężenia wybranych substancji biogenicznych, zawartości chlorofilu” – tłumaczy Janecki.

Tworzony przez uczonych model to po prostu duży program komputerowy. Równania matematyczne w tym programie opisują zjawiska zachodzące w morzu, np. produkcję pierwotną fitoplanktonu albo transport między wspomnianymi „klockami”.

Janecki zaznacza, że ograniczeniem w pracy badacza zajmującego się modelami są przede wszystkim komputery. Uczeni chętnie podzieliliby akwen na jak najmniejsze klocki, żeby określić, co dzieje się na powierzchni 10 na 10 metrów. Jednak mimo że na Politechnice Gdańskiej (klaster Galera CI TASK) obliczenia wykonuje naraz 256 rdzeni obliczeniowych, to zadanie wymaga kilku tygodni, a nawet miesięcy pracy. Model musi uwzględniać wyliczenia z kilku lat wstecz i wybiegać kilka lat naprzód.

Rozmówca PAP podkreśla zalety badań z zastosowaniem modeli komputerowych. Zaznacza, że osoby zajmujące się takimi analizami nie prowadzą pomiarów na statku i nie pływają w rejsy.

„Jedna wyprawa statkiem, podczas której chcemy zmierzyć temperaturę, zasolenie wody, stężenie substancji biogeochemicznych, wymaga pieniędzy, zaangażowania ludzi, uwzględnienia warunków atmosferycznych. Nie można wypłynąć, kiedy się chce, np. zimą podczas sztormów. Model ma tę zaletę, że mamy przestrzenny rozkład temperatury czy szybkości prądów, określony co tzw. krok czasowy – co kilka minut, dni, z wyprzedzeniem na lata” – uważa Janecki.

„Mimo tego, że modele są tańsze niż pomiary wykonywane podczas rejsów, zdjęcia satelitarne lub prace laboratoryjne, to modele nigdy (a przynajmniej jeszcze przez długi czas) nie będą w stanie sobie bez nich poradzić” – przyznaje Janecki.

Jego zdaniem wszystkie metody badawcze wzajemnie się uzupełniają. Model tylko z pewną dokładnością odwzorowuje rzeczywistość, podczas gdy czynności badawcze, takie jak włożenie termometru do wody i zmierzenie temperatury czy pobranie próbek wody i sprawdzenie jej w laboratorium pod kątem zawartości materii nieorganicznej bądź organicznej, obarczone są zazwyczaj stosunkowo niskim błędem pomiaru.

Dlatego eksperci od modeli wykorzystują dane pomiarowe zarówno do weryfikacji wyników modelowych, jak i kalibracji samego modelu. Model weryfikowany jest również poprzez pomiary satelitarne, które z kolei ograniczone są przez warunki atmosferyczne. Dane satelitarne są wykorzystywane do asymilacji wartości temperatury powierzchniowej w modelu. Wszystko to wiąże pośrednio model z rzeczywistością, pozwalając mu na osiąganie dokładniejszych wyników.

W wyniku modelowania rozmaitych parametrów pogodowych czy biologicznych powstaje aktualna prognoza na 48 godzin, dostępna przez stronę instytutu. Model nazwano 3D-CEMBS (CoupledEcosystem Model of the Baltic Sea), można go znaleźć pod adresem internetowym: http://deep.iopan.gda.pl/CEMBaltic/new_lay/index.php. Maciej Janecki udoskonala ten model w swoim doktoracie. Jego praca została wyróżniona w VI edycji programu stypendialnego „Innodoktorant”.

Model 3D-CEMBS bazuje na modelu globalnym, który badacze z Pracowni Modelowania Procesów Ekohydrodynamicznych IO PAN zaadaptowali do warunków Morza Bałtyckiego.

Ten sam model ma różne tryby. Może mieć charakter operacyjny albo długoterminowy, czyli wykonywać obliczenia do przodu na 20, a nawet 50 lat.

„Możemy go wykorzystywać w trybie 48-godzinnym przy pewnych założeniach (zapisywanie wyników jako średnie godzinne, etc.), warunkach brzegowych i danych wymuszających (np. dane atmosferyczne z meteo.pl, itd.), jak również w trybie 100-letnim, zaczynając symulację np. w 1960 roku i kończąc na 2050/2100” – mówi Janecki.

Dodaje, że w tej ostatniej wersji zapis średnich godzinnych nie ma już sensu, badacze muszą też wykorzystać inne dane atmosferyczne i uwzględnić scenariusze Międzyrządowego Zespołu ds. Zmian Klimatu (IPCC).

PAP – Nauka w Polsce, Karolina Olszewska

kol/

Fundacja PAP zezwala na bezpłatny przedruk artykułów z Serwisu Nauka w Polsce pod warunkiem mailowego poinformowania nas raz w miesiącu o fakcie korzystania z serwisu oraz podania źródła artykułu. W portalach i serwisach internetowych prosimy o zamieszczenie podlinkowanego adresu: Źródło: naukawpolsce.pl, a w czasopismach adnotacji: Źródło: Serwis Nauka w Polsce - naukawpolsce.pl. Powyższe zezwolenie nie dotyczy: informacji z kategorii "Świat" oraz wszelkich fotografii i materiałów wideo.

Czytaj także

  • dr Tomasz Włodarski z Instytutu Biochemii i Biofizyki PAN. Fot. archiwum własne.

    Ekspert: AlphaFold nie zabierze pracy biologom

  • Fot. Adobe Stock

    Skąd zanieczyszczenia powietrza? Sporo pyłu niesie dym z domów

Przed dodaniem komentarza prosimy o zapoznanie z Regulaminem forum serwisu Nauka w Polsce.

newsletter

Zapraszamy do zapisania się do naszego newslettera