Dr hab. Kozak: dane odzwierciedlające współczesny świat wśród wyzwań w rozwoju AI

Fot. Adobe Stock
Fot. Adobe Stock

Brak jakościowych danych, które odzwierciedlałyby rzeczywiste społeczeństwo np. zróżnicowanie pod względem płci jest jednym z największych wyzwań w rozwoju sztucznej inteligencji – uważa dr hab. Jan Kozak, prof. Uniwersytetu Ekonomicznego w Katowicach.

"Musimy sobie zdawać sprawę, że dane stosowane przez programistów do tworzenia algorytmów nie reprezentują współczesnego społeczeństwa, ponieważ w większości zostały zebrane w poprzednich dekadach, nawet w poprzednim wieku, w sposób dzisiaj postrzegany jako tendencyjny i faworyzujący mężczyzn. To m.in. dlatego na początku rozwoju asystentów głosowych w samochodach, urządzenia nie rozpoznawały kobiecego głosu – właśnie z powodu braku danych” – podkreślił w rozmowie z Nauką w Polsce kierownik Katedry Uczenia Maszynowego na Wydziale Informatyki i Komunikacji Uniwersytetu Ekonomicznego w Katowicach.

W jego ocenie właśnie ten problem jest jednym z największych wyzwań w rozwoju sztucznej inteligencji.

„Przygotowując się do różnych projektów, przede wszystkim obawiam się o dobrej jakości dane. Przykładowo, jeden z ostatnich naszych projektów dotyczył możliwości zastosowania sztucznej inteligencji w automatycznym tłumaczeniu języka polskiego na polski język migowy. Dla nas jest oczywiste, że dane muszą reprezentować dzisiejsze społeczeństwo, dlatego powinniśmy nagrywać mężczyzn, kobiety, dzieci, ludzi pochodzących spoza Europy, ludzi o różnej posturze itd. Takie zróżnicowanie danych powinno być podstawą, bo przecież sztuczna inteligencja, a dokładniej uczenie maszynowe, często uczy się na danych, które dostaje” – powiedział Jan Kozak.

Naukowiec przypomniał, że wbrew powszechnej opinii, sztuczna inteligencja opiera się na prostych algorytmach, które znane są już od lat 60. XX wieku i której w dużej mierze bazują na statystyce.

„Sztuczna inteligencja, a dokładniej uczenie maszynowe, często uczy się na danych, jakie dostaje na wejściu. Następnie próbuje w nich szukać pewnych nietrywialnych (nieoczywistych) zależności i na tej podstawie replikować (powtarzać) swoją klasyfikację, czyli podawać wynik, np. jaka będzie jutro temperatura” – tłumaczył.

W przypadku części algorytmów opartych na uczeniu maszynowym pytaniem pozostaje jednak sposób wskazania tego wyniku, czyli wyjaśnialność sztucznej inteligencji.

„Algorytmy bazujące na głębokich sieciach neuronowych są algorytmami niewyjaśnialnymi. Oznacza to, że one wprawdzie dają nam pewną odpowiedź, np. że jutro będzie 17 st. Celsjusza, ale jeśli je zapytamy, dlaczego tak sądzą, to nie dadzą nam już pełnej odpowiedzi. Dzieje się tak dlatego, że w tej 'czarnej skrzynce' zachodzi ogromna liczba decyzji, kroków, a do tego jest tam ogromna ilość danych. Algorytmy starają się to wszystko uporządkować, ale ostateczna decyzja podejmowana jest w sposób nie do końca i nie zawsze przez nas zrozumiały” – powiedział Kozak.

Dodał, że jeśli dotyczy to przykładowego prognozowania pogody to kwestia wyjaśnialności nie jest aż tak istotna. „Jednak gdy w grę wchodzą np. decyzje prawne, kwestie etyczne czy medyczne, musimy mieć pewność, na jakiej podstawie algorytm podał swoją odpowiedź” – wskazał naukowiec.

Między innymi tego tematu dotyczyła dwudniowa konferencja naukowa, która odbyła się w dniach 23-24 października na Uniwersytecie Ekonomicznym w Katowicach pod hasłem: „Interpretacja i wyjaśnialność sztucznej inteligencji (czyli jak zrozumieć AI - jej decyzje / wyniki / odpowiedzi)”, prezentująca prace badawcze i rozwojowe polskich naukowców w tym temacie.

Jan Kozak przypomniał, że w historii rozwoju sztucznej inteligencji obserwuje się sinusoidalne fale zainteresowania. „Najpierw mamy falę zachwytu, kiedy nasze oczekiwania rosną, a później mamy okres zawiedzenia się i pewnej stagnacji. W mojej ocenie jesteśmy już po pierwszej fali zachwytu nad Chatem GPT, który w ocenie części społeczeństwa miał zrewolucjonizować nasze życie, a z czasem zamienił się w narzędzie, które nas wspomaga, a nie zastępuje” – powiedział.

Naukowiec dodał jeszcze, że ze sztuczną inteligencją jest jak z wychowywaniem dziecka. „Wychowujemy nasze dziecko w pewien konkretny sposób pokazując, co jest dobre, a co złe np. za pomocą kar i nagród. Podobnie działa sztuczna inteligencja. Oczywiście, że możemy ją wykorzystać w dobrym celu np. w poszukiwaniu nowego antybiotyku albo w zupełnie odwrotnym i wtedy faktycznie może być ona zagrożeniem. Ale podobnie jest z nożem – może nam pomagać w krojeniu jedzenia albo być narzędziem zbrodni. Wybór należy do nas” – podsumował Jan Kozak.

Nauka w Polsce, Agnieszka Kliks-Pudlik

akp/ agt/

Fundacja PAP zezwala na bezpłatny przedruk artykułów z Serwisu Nauka w Polsce pod warunkiem mailowego poinformowania nas raz w miesiącu o fakcie korzystania z serwisu oraz podania źródła artykułu. W portalach i serwisach internetowych prosimy o zamieszczenie podlinkowanego adresu: Źródło: naukawpolsce.pl, a w czasopismach adnotacji: Źródło: Serwis Nauka w Polsce - naukawpolsce.pl. Powyższe zezwolenie nie dotyczy: informacji z kategorii "Świat" oraz wszelkich fotografii i materiałów wideo.

Czytaj także

  • 06.05.2024. Rektor PG prof. Krzysztof Wilde (P), pierwszy wiceprezes firmy Bechtel Ramesh Balasubramanian (C) oraz prezes Bechtel Polska Leszek Hołda (L) na podpisaniu porozumienia o współpracy Politechniki Gdańskiej z amerykańskim koncernem budowlanym Bechtel w Sali Senatu Politechniki Gdańskiej. PAP/Marcin Gadoms

    Politechnika Gdańska i Bechtel będą współpracowały m.in. w zakresie energetyki jądrowej

  • Prof. Ryszard Koziołek: AI nie wyprze humanistów, ale przesunie ich w inne miejsce (wywiad)

newsletter

Zapraszamy do zapisania się do naszego newslettera