Prof. Przegalińska: pośmiertna komunikacja za pomocą AI ze zmarłymi może pomóc w żałobie

Adobe Stock
Adobe Stock

Technologie służące do "pośmiertnej komunikacji", np. boty AI “wskrzeszające" ludzi, mogą pomóc w przeżywaniu żałoby - powiedziała PAP prof. Aleksandra Przegalińska. Dodała, że budzą też wiele kontrowersji m.in. z powodu braku kontroli nad tym, co "mówią" zmarli.

Profesor Przegalińska, prorektor ds. innowacji na Akademii Leona Koźmińskiego oraz badaczka sztucznej inteligencji związana z Harvard University, uważa, że pierwszy naprawdę dobry bot, którego zadaniem było "wskrzeszenie zmarłego" za pomocą technologii, nazywał się Replika AI i powstał przed pandemią COVID-19. Jego pierwowzorem był zmarły przyjaciel twórczyni bota, która chciała go "ocalić" za pomocą technologii. Replika AI potrafił prowadzić konwersację ze swoją twórczynią i robił to w podobnym stylu, jak jej zmarły przyjaciel - wskazała ekspertka.

"Kwestia botów +wskrzeszających ludzi+, tzw. griefbotów, jest bardzo trudnym zagadnieniem. Z jednej strony pojawiają się tu kontrowersje związane z brakiem kontroli i zgody zmarłych na takie wykorzystanie. Z drugiej, może to być narzędzie, które pomaga żywym w żałobie, w pogodzeniu się z odejściem kogoś bliskiego, np. w sytuacji, gdy mamy do czynienia z nagłą śmiercią, gdy tego +domknięcia+ brakuje" - oceniła.

Podczas swojego pobytu w Azji na konferencjach naukowych profesor - jak przyznała - odbywała rozmowy dotyczące takich czat botów, które służą do "pośmiertnej komunikacji" i podejście do nich było w większości pozytywne. "Ludzie, z którymi rozmawiałam w Azji wskazywali, że ta usługa jest potrzebna, podobnie jak pochówek zmarłych. Jestem w stanie sobie wyobrazić, że ludzie mają potrzebę +domknięcia+ czegoś, odbycia tej ostatniej rozmowy, na którą nie starczyło czasu lub odwagi, pokazania zdjęcia wnuka... To jest oczywiście symulacja, ale może komuś pomóc" - powiedziała.

Zaznaczyła, że wykorzystanie griefbotów w procesie żałoby to dalej stosunkowo nowy i słabo zbadany obszar, ale ewidentnie odpowiada na jakieś potrzeby, które inaczej mogą nie być zrealizowane. Pytana, czy nie stwarzają one zagrożenia, że - w przeciwieństwie do pochówku, który jest jednorazowym wydarzeniem - dana osoba nigdy nie "domknie" tego etapu, tylko "utkwi" w konwersacji ze zmarłym, prof. Przegalińska zapytała, kto właściwie powinien to oceniać.

"Czy to my mamy to oceniać? Ile tych rozmów ma się odbyć? Gdzie mamy postawić granicę między pożegnaniem i wsparciem a szkodliwością? Na ten moment tego nie wiem" - powiedziała.

Jej zdaniem osobnym pytaniem jest kwestia modelu biznesowego, bo jeśli ktoś rzeczywiście żeruje na czyjejś potrzebie kontaktu z człowiekiem, którego nie ma, i robi z tego intratny biznes, to jest to coś paskudnego. Ale rozumiem też, że nie możemy tego robić za darmo, bo utrzymanie urządzeń, obsługi kosztuje" - powiedziała.

Ekspertka dodała, że ma doświadczenie z tworzeniem botów AI na podstawie ludzi, bo sama takiego bota stworzyła - na podstawie siebie. Korzysta z niego na wykładach na platformie Campus AI, gdzie bot Przegalińskiej prowadzi część wykładów zamiast żywej profesor.

"Muszę powiedzieć - i nie jest to jakaś fałszywa pycha, że jest coś takiego w kontakcie między jednym człowiekiem a drugim, albo między człowiekiem a grupą ludzi, co się pojawia tylko i wyłącznie wtedy, kiedy wszyscy są ludźmi. Dzisiaj, po dwóch latach eksploatowania tego awatara, mam dokładnie takie wrażenie, że tam po prostu czegoś brakuje. Ale to nie znaczy, że nie widzę dla niego wykorzystania" - wskazała. I dodała: "mój awatar może być takim dodatkiem do mojego wykładu, może przekazać moim studentom najważniejszą wiedzę w pigułce, a potem ci studenci mogą spotkać się ze mną na seminarium, żeby to dogłębnie przedyskutować".

Ekspertka dodała, że jej książka została wypuszczona m.in. w formie "live booka" - żywej książki, czyli kolejnej nowej generacji książek. Żywa książka to bot AI, który przyjmuje postać książki i wykorzystując klon głosu, autora może np. opowiedzieć swoje streszczenie lub odpowiedzieć na pytania czytelnika. Jak zaznaczyła ekspertka, to otwiera nowe możliwości wykorzystania klonowania ludzi przez sztuczną inteligencję - również tych, którzy już nie żyją. (PAP)

Autorka: Agata Gutowska

agg/ pad/ jpn/

Fundacja PAP zezwala na bezpłatny przedruk artykułów z Serwisu Nauka w Polsce pod warunkiem mailowego poinformowania nas raz w miesiącu o fakcie korzystania z serwisu oraz podania źródła artykułu. W portalach i serwisach internetowych prosimy o zamieszczenie podlinkowanego adresu: Źródło: naukawpolsce.pl, a w czasopismach adnotacji: Źródło: Serwis Nauka w Polsce - naukawpolsce.pl. Powyższe zezwolenie nie dotyczy: informacji z kategorii "Świat" oraz wszelkich fotografii i materiałów wideo.

Czytaj także

  • Fot. Adobe Stock

    Ekonomista o Black Friday: obniżki rzędu 30 proc. powinny budzić nieufność

  • Fot. Adobe Stock

    Łódź/ Naukowcy: sztuczna inteligencja niesie zagrożenia dla rynku pracy

Przed dodaniem komentarza prosimy o zapoznanie z Regulaminem forum serwisu Nauka w Polsce.

newsletter

Zapraszamy do zapisania się do naszego newslettera