Sztuczna inteligencja potrzebuje kompasu moralnego

Fot. Adobe Stock
Fot. Adobe Stock

Sztuczna inteligencja może być uważna za obdarzoną wolną wolą, dlatego potrzebne jej są moralne wytyczne - wskazuje fiński filozof i badacz psychologii Frank Martela na łamach pisma „AI and Ethics”

Najnowsze badanie profesora nadzwyczajnego Franka Marteli, filozofa i badacza psychologii z Uniwersytetu Aalto (Finlandia) wykazało, że generatywna AI spełnia wszystkie trzy filozoficzne warunki wolnej woli — zdolność do posiadania ukierunkowanej na cel sprawczości, dokonywania autentycznych wyborów i kontrolowania swoich działań.

Opierające się na koncepcji funkcjonalnej wolnej woli, wyjaśnionej w teoriach filozofów Daniela Dennetta i Christiana Lista badanie dotyczyło dwóch generatywnych agentów AI zasilanych przez duże modele językowe (LLM): Voyagera w grze Minecraft i fikcyjnych zabójczych bezzałogowych statków powietrznych (dronów) „Spitenik” z funkcją poznawczą.

„Oba wydają się spełniać wszystkie trzy warunki wolnej woli — w przypadku najnowszej generacji agentów AI musimy założyć, że mają wolną wolę, jeśli chcemy zrozumieć, jak działają i móc przewidzieć ich zachowanie” — wskazał Martela. Jak dodał, te studia przypadków mają odniesienie do wielu obecnie dostępnych agentów generatywnych wykorzystujących LLM. AI rozwija się z taką prędkością, że spekulatywne pytania moralne, niegdyś domena science fiction, nagle stały się realne i pilne.

Jak podkreślił filozof, dotarliśmy do krytycznego punktu w historii ludzkości: dajemy AI więcej władzy i swobody, potencjalnie w sytuacjach życia lub śmierci. Niezależnie od tego, czy jest to bot udzielający porad, samochód autonomiczny czy zabójczy dron — odpowiedzialność moralna może przejść z twórcy AI na samego agenta AI.

„Wkraczamy na nowe terytorium. Posiadanie wolnej woli jest jednym z kluczowych warunków odpowiedzialności moralnej. Chociaż nie jest to warunek wystarczający, jest o krok bliżej do tego, aby AI miała moralną odpowiedzialność za swoje działania” — dodał Martela. Wynika z tego, że kwestie dotyczące „wychowywania” naszej technologii AI stały się zarówno realne, jak i pilne.

„AI nie ma moralnego kompasu, chyba że jest zaprogramowana, aby go mieć. Ale im więcej swobody dasz AI, tym bardziej musisz dać jej moralny kompas od samego początku. Tylko wtedy będzie w stanie podejmować właściwe decyzje” – zaznaczył filozof.

Niedawne wycofanie najnowszej aktualizacji ChatGPT z powodu potencjalnie szkodliwych tendencji pochlebczych jest sygnałem ostrzegawczym, że należy zająć się głębszymi kwestiami etycznymi. Wyszliśmy poza nauczanie uproszczonej moralności dziecka.

„AI jest coraz bliżej bycia dorosłym — i coraz częściej musi podejmować decyzje w złożonych problemach moralnych świata dorosłych. Instruując AI, aby zachowywała się w określony sposób, programiści przekazują jej również własne przekonania moralne. Musimy upewnić się, że osoby rozwijające AI mają wystarczającą wiedzę na temat filozofii moralnej, aby móc nauczyć je dokonywania właściwych wyborów w trudnych sytuacjach” — podsumował Martela.

Frank Martela jest filozofem i badaczem psychologii specjalizującym się w psychologii człowieka, dobrostanie i sensie życia. Jako adiunkt na Uniwersytecie Aalto w Finlandii stał się liderem myśli w wyjaśnianiu międzynarodowym mediom, dlaczego Finlandia jest na szczycie rankingów szczęścia. Jego najnowsza książka "Stop Chasing Happiness – a pessimist’s guide to a good life" (Atlantic Books, 2025) została wydana na początku tego roku.

Paweł Wernicki (PAP)

pmw/ bar/

Fundacja PAP zezwala na bezpłatny przedruk artykułów z Serwisu Nauka w Polsce pod warunkiem mailowego poinformowania nas raz w miesiącu o fakcie korzystania z serwisu oraz podania źródła artykułu. W portalach i serwisach internetowych prosimy o zamieszczenie podlinkowanego adresu: Źródło: naukawpolsce.pl, a w czasopismach adnotacji: Źródło: Serwis Nauka w Polsce - naukawpolsce.pl. Powyższe zezwolenie nie dotyczy: informacji z kategorii "Świat" oraz wszelkich fotografii i materiałów wideo.

Czytaj także

  • Fot. Adobe Stock

    Ruda kocia mutacja pod lupą naukowców

  • Fot. Adobe Stock

    Webb i Keck pokazały pogodę na Tytanie

Przed dodaniem komentarza prosimy o zapoznanie z Regulaminem forum serwisu Nauka w Polsce.

newsletter

Zapraszamy do zapisania się do naszego newslettera