Raport: prawdziwy rozwój potencjału sztucznej inteligencji w ochronie zdrowia jeszcze przed nami

Fot. Adobe Stock
Fot. Adobe Stock

Sektor ochrony zdrowia już dziś wykorzystuje rozwiązania AI do niektórych procesów. Jednak prawdziwy rozwój potencjału sztucznej inteligencji w branży zdrowia i ochrony zdrowia jeszcze przed nami - wynika z raportu "Sztuczna inteligencja w zdrowiu. Bezpieczeństwo prawne i wykorzystanie w Polsce”.

Think Tank SGH dla ochrony zdrowia opublikował raport "Sztuczna inteligencja w zdrowiu. Bezpieczeństwo prawne i wykorzystanie w Polsce", przygotowany głównie przez naukowców Szkoły Głównej Handlowej w Warszawie.

W ocenie autorów raportu sztuczna inteligencja (AI) staje się nierozłącznym elementem otoczenia branży zdrowia i opieki zdrowotnej. Dzięki swojej specyfice ma ona potencjał, by zrewolucjonizować podejście do profilaktyki, diagnostyki, leczenia i monitorowania pacjentów, jednocześnie redukując koszty i podnosząc jakość tych działań. Jednocześnie, jak zauważają, niesie to ze sobą wyzwania, którym trzeba sprostać. W kontekście AI jest to przede wszystkim stworzenie odpowiednich regulacji prawnych i zadbanie o zrównoważony rozwój technologiczny, bezpieczny cyfrowo i wspierający potrzeby społeczne.

Autorzy poinformowali, że globalny rynek AI w opiece zdrowotnej w 2023 r. był wyceniany na 22,5 miliarda dolarów. W trwającym 2024 r. ma osiągnąć wartość 32,3 miliarda dolarów i wzrastać z roczną stopą wzrostu na poziomie 36,4 proc. do roku 2030 osiągając wartość 208,2 miliarda dolarów.

Jak zaznaczono, przykładowe zastosowania AI w działalności świadczeniodawcy ochrony zdrowia można przyporządkować realizowanym priorytetom biznesowym. Są to: rozwój nowych produktów i usług (np. chatbot do obsługi pacjenta, translator wiedzy o zdrowiu, generowanie treści marketingowych), poprawa efektów zdrowotnych (np. triaż, podsumowanie historii medycznej pacjenta, tworzenie programów zdrowotnych, synteza społecznych determinantów zdrowia, screening pacjentów do badań), wsparcie kadry medycznej (np. bank wiedzy medycznej, tworzenie symulacji, generowanie poleceń) oraz optymalizacja procesów (np. generowanie umów, generowanie treści szkoleniowych, ewaluacja i planowanie, zarządzanie zasobami i generowanie raportów).

"Możliwość komunikacji poprzez wykorzystanie voicebotów i chatbotów jest jednym z coraz częściej wykorzystywanych rozwiązań AI w obszarze nowych produktów i usług oferowanych pacjentom. Boty obsługujące proste zapytania i udzielające pacjentom wsparcia na etapie gromadzenia informacji pozwalają na bardziej celowaną interakcję z instytucją niż w przypadku wyłącznie czytania informacji dostępnych na stronach" - czytamy. Algorytmy AI mogą także doprowadzić do poprawy efektów klinicznych. "Przykładem może być opracowanie algorytmów triażu pacjentów na izbach przyjęć. Ich wdrożenie pozwala na wypracowanie schematu odpowiedniej opieki zdrowotnej, a także optymalizację czasu oczekiwania poszczególnych pacjentów na opiekę, zgodnie z biomedyczną zasadą sprawiedliwości" - wyjaśniono.

Jak zauważyli autorzy, z punktu widzenia wielkości rynku największe wykorzystanie AI występuje w zakresie diagnostyki oraz chirurgii robotycznej. Przykładowo - systemy chirurgiczne są wyposażane w zaawansowane procesory i algorytmy, które pozwalają na przetwarzanie dużych ilości danych w czasie rzeczywistym. Dzięki temu mogą one szybko analizować informacje i dostarczać chirurgowi precyzyjnych wskazówek oraz wspomagać go w podejmowaniu decyzji w trakcie operacji.

Jednocześnie, w związku z rozwojem AI, pojawiają się ryzyka i wyzwania. Jednym z nich jest kwestia odpowiedzialności za szkodę powstałą w związku z korzystaniem z rozwiązania technologicznego wykorzystującego Ai. Ponadto, autorzy wskazali na brak gwarancji całkowitego bezpieczeństwa wykorzystania AI, zapewnienie ochrony danych osobowych oraz konieczność poszanowania własności intelektualnej i zasad przejrzystości działania.

"Istnieją również obawy dotyczące etyki związanej z wykorzystaniem AI w opiece zdrowotnej. Na przykład, algorytmy mogą wprowadzać uprzedzenia lub dyskryminację, jeśli nie są odpowiednio przeszkolone lub kalibrowane. Przykładem może być tutaj badanie z 2019 roku, w którym potwierdzono, że algorytm rzadziej kierował czarnoskórych pacjentów niż białych pacjentów o tak samo złym stanie zdrowia do programów mających na celu poprawę opieki dla pacjentów z złożonymi potrzebami medycznym" - czytamy.

W raporcie przywołano wyniki badania Centrum e-Zdrowia, według których sztuczna inteligencja w polskich szpitalach przede wszystkim wspiera procesy diagnostyczne, w tym w szczególności analizę obrazów medycznych. Kolejnym obszarem jest wspieranie decyzji klinicznych w zakresie prowadzenia leczenia, a trzecim - procesy administracyjne i obsługi pacjenta.

Autorzy raportu zwrócili również uwagę na prawo unijne w zakresie AI - rozporządzenie Parlamentu Europejskiego i Rady ustanawiające zharmonizowane przepisy dotyczące sztucznej inteligencji (AIA) oraz dyrektywę odpowiedzialności za sztuczną inteligencję (AILD). Rozporządzenie ustanawia m.in. zharmonizowane przepisy dotyczące wprowadzania do obrotu, oddawania do użytku oraz wykorzystywania systemów sztucznej inteligencji w UE, zakazy dotyczące określonych praktyk w zakresie sztucznej inteligencji, szczególne wymogi dotyczące systemów sztucznej inteligencji wysokiego ryzyka oraz obowiązki spoczywające na podmiotach będących operatorami takich systemów.

Jak podkreślono w podsumowaniu, sektor ochrony zdrowia już dziś wykorzystuje rozwiązania AI do niektórych procesów, zarówno tych administracyjnych jak i takich o charakterze stricte klinicznym; jednak prawdziwy rozwój potencjału sztucznej inteligencji w branży zdrowia i ochrony zdrowia jeszcze przed nami.

W rekomendowanych działaniach zwrócono uwagę m.in. na konieczność przyjęcia na gruncie polskiego prawa jednolitego i przejrzystego modelu odpowiedzialności cywilnej za szkody wyrządzone przez systemy AI, wdrożenie przepisów dotyczących ochrony danych w związku z wtórnym wykorzystaniem danych dotyczących zdrowia na potrzeby rozwoju systemów AI czy szkolenia personelu medycznego w zakresie bezpiecznego i efektywnego korzystania z technologii AI w procesie diagnostyczno-terapeutycznym.

Całość raportu dostępna jest na stronie internetowej think tanku. (PAP)

ak/ agz/

Fundacja PAP zezwala na bezpłatny przedruk artykułów z Serwisu Nauka w Polsce pod warunkiem mailowego poinformowania nas raz w miesiącu o fakcie korzystania z serwisu oraz podania źródła artykułu. W portalach i serwisach internetowych prosimy o zamieszczenie podlinkowanego adresu: Źródło: naukawpolsce.pl, a w czasopismach adnotacji: Źródło: Serwis Nauka w Polsce - naukawpolsce.pl. Powyższe zezwolenie nie dotyczy: informacji z kategorii "Świat" oraz wszelkich fotografii i materiałów wideo.

Czytaj także

  • Fot. Adobe Stock

    Eksperci: AI może wspomagać w psychoterapię, ale chatboty mają mnóstwo ograniczeń

  • 07.10.2024 EPA/SPACEX

    Innowacyjne anteny firmy Astronika w misji HERA

Przed dodaniem komentarza prosimy o zapoznanie z Regulaminem forum serwisu Nauka w Polsce.

newsletter

Zapraszamy do zapisania się do naszego newslettera