Dobry robot

Fot. Fotolia
Fot. Fotolia

Sztuczna inteligencja i roboty coraz śmielej wkraczają między ludzi. Aby zapobiec nieszczęściom i zapewnić komfortową pracę z maszynami naukowcy starają się nauczyć je moralności.

Pierwsze prawo: robot nie może skrzywdzić człowieka, ani z powodu zaniechania działania dopuścić do jego krzywdy. Drugie prawo: robot musi być posłuszny poleceniom człowieka, jeśli nie stoją one w sprzeczności z pierwszym prawem. Trzecie: robot musi chronić siebie samego, o ile nie jest to sprzeczne z pierwszym i drugim prawem. Słynny pisarz science-fiction Isaac Asimov stworzył te reguły już w 1942, potem dodał jeszcze prawo zerowe - robot nie może skrzywdzić ludzkości, lub w wyniku zaniechania akcji doprowadzić, aby doznała uszczerbku. Fantastyka powoli staje się rzeczywistością i w obliczu komputerów, które decydują o przyznaniu kredytu, sterują samochodami czy maszynami latającymi; robotów, które powoli wkraczają do domów, szpitali czy na ulice (na przykład Dubaj testuje roboty – policjantów) moralność maszyn staje się coraz bardziej potrzebna.

Czy jednak prawa Asimova wystarczą? Nawet w jego książkach czasami stwarzały problemy, a na szali leżało nie tylko dobro pojedynczego człowieka. Postacie znane ze świata nauki i nowych technologii jak np. Stephen Hawking czy Elon Musk głośno wręcz ostrzegają przed inteligencją zamkniętą w krzemowych procesorach.

Jej rozwój jednak przyspiesza i naukowcy na poważnie zajęli się uczeniem maszyn moralności. Problem jest skomplikowany. Bo jak ma na przykład zachować się autonomiczny samochód, przed który na drogę wybiegło dziecko z piłką? Czy ma je potrącić, czy skręcić w jedną stronę i rozjechać postronnego dorosłego, czy może skręcić w drugą stronę i uderzyć w drzewo ryzykując śmierć kierowcy i pasażerów?

Eksperci próbują różnych sposobów, by wpoić komputerom i robotom właściwe zachowanie. Naukowcy z University of Osnabrück pracują na przykład nad etycznym modelem jazdy po ulicy. Twierdzą, że różnym "obiektom" na drodze można nadać odpowiednią wartość, i tak na przykład człowiek będzie wart więcej, niż inny samochód czy pies, więc komputerowy kierowca będzie go chronił. "Ludzkie zachowanie w obliczu dylematów może być odtworzone przy pomocy całkiem prostego modelu opartego na wartości życia, przypisywanej istotom ludzkim, zwierzętom czy obiektom martwym" - mówi jeden z twórców pomysłu, Leon Sütfeld. Niektóre wybory mogą być jednak trudne i przez wiele osób etycznie kwestionowane, jak np. w sytuacji z dzieckiem i przechodniem.

Tymczasem sztuczna inteligencja, w skrócie nazywana AI (ang. artificial intelligence) wykracza daleko poza autonomiczne samochody. Dzisiejsi specjaliści podobnie jak Asimov poszukują więc uniwersalnych zasad, które mogłyby kierować maszynami. Jeden z pomysłów to regulacja w cyfrowych mózgach pewności siebie. Takie rozwiązanie proponują badacze z University of California w Berkeley. W przeprowadzonych symulacjach robot o zdrowym poziomie pewności siebie był w stanie zignorować polecenie człowieka mówiące, aby się wyłączył, ponieważ według posiadanych informacji dobrze wykonywał powierzone mu zadanie. Taka zdolność byłaby niezbędna na przykład w interakcjach robotów z dziećmi, które wydawałyby im różne polecenia. Z drugiej strony zbyt pewny siebie robot mógłby spowodować kłopoty nie słuchając swojego właściciela. Kluczem do sukcesu jest też według badaczy dostarczenie robotowi dostatecznej ilości informacji - tak, aby mógł dobrze ocenić swoją sytuację.

Z kolei zespół z University of Hertfordshire chce dać maszynom jak największe możliwości. To jednak nie powód do obaw, bo pod tym pojęciem kryje się sprytne podejście do ochrony zarówno ludzi, jak i samych robotów. Badacze proponują tak programować inteligentne urządzenia, aby zawsze szukały rozwiązań pozostawiających maksymalną możliwość wpływu na otoczenie.

"Dla prostego robota oznaczałoby to np. bezpieczny powrót do ładowarki bez utknięcia gdzieś po drodze, które ograniczyłoby jego możliwości ruchu. W przypadku przypominających ludzi robotów przyszłości zasada ta nie dotyczyłaby tylko ruchu ale różnorodnych parametrów, które skutkowałyby przypominającymi ludzkie motywacjami" - tłumaczy jeden z autorów pomysłu, dr Christoph Salge. Maszyny starałyby się także zapewnić jak największe możliwości wpływania na otoczenie ludziom, a tym samym dbałyby o ich dobro. Z drugiej strony taki robot nie naruszałby granic człowieka, poprzez np. opresyjną chęć pomocy. "Chcieliśmy robota, który będzie patrzył oczami ludzi, z którym będzie wchodził w interakcje. Utrzymanie człowieka w bezpieczeństwie zakłada zadbanie o zachowanie jego możliwości działania" - tłumaczy jeden z naukowców prof. Daniel Polani.

Oczywiście takie maszyny musiałyby w pewnym sensie rozumieć warunki, w których się znajdują, ale właśnie do tego też zmierza rozwój sztucznej inteligencji. Czy więc jej potencjał, który teoretycznie może stworzyć zagrożenia, pozwoli jednocześnie sobie z nimi poradzić? Jeśli prace nad AI nie ustaną, a raczej trudno się tego spodziewać, to prawdopodobnie już niebawem się przekonamy.

Nauka w Polsce, Marek Matacz

Fundacja PAP zezwala na bezpłatny przedruk artykułów z Serwisu Nauka w Polsce pod warunkiem mailowego poinformowania nas raz w miesiącu o fakcie korzystania z serwisu oraz podania źródła artykułu. W portalach i serwisach internetowych prosimy o zamieszczenie podlinkowanego adresu: Źródło: naukawpolsce.pl, a w czasopismach adnotacji: Źródło: Serwis Nauka w Polsce - naukawpolsce.pl. Powyższe zezwolenie nie dotyczy: informacji z kategorii "Świat" oraz wszelkich fotografii i materiałów wideo.

Czytaj także

  • Adobe Stock

    Akcja: autoryzacja

  • Adobe Stock

    Wynalazki pomagają "widzieć"

Przed dodaniem komentarza prosimy o zapoznanie z Regulaminem forum serwisu Nauka w Polsce.

newsletter

Zapraszamy do zapisania się do naszego newslettera