Technologie

Czy robot może mieć moralność?

Człekokształtny robot, siedzący w rozkroku i patrzący na coś z zainteresowaniem
Robot Kotaro. Autorem zdjęcia jest Manfred Werner. Ilustracja na licencji CC-BY 3.0

Roboty zagościły w ludzkiej świadomości dużo wcześniej, niż rzeczywiście pojawiły się w naszym otoczeniu. Opublikowana w 1920r. sztuka „R.U.R.” Karela Čapka, po raz pierwszy wprowadziła słowo „robot” do naszego języka, przy okazji od razu roztaczając przed nami wizję buntu rozumnych maszyn.

Mimo że postęp technologiczny przez długi jeszcze czas nie pozwalał na skonstruowanie maszyn samodzielnie podejmujących decyzje o swoim działaniu, to problem zapewnienia, by zachowywały się one we „właściwy” z naszego punktu widzenia sposób, stale zaprzątał umysły futurologów. W latach czterdziestych, w swoim zbiorze opowiadań „Ja, robot” Isaac Asimov zaproponował „Trzy prawa robotyki”:

1. Robot nie może skrzywdzić człowieka, ani przez zaniechanie działania dopuścić, aby człowiek doznał krzywdy.
2. Robot musi być posłuszny rozkazom człowieka, chyba że stoją one w sprzeczności z Pierwszym Prawem.
3. Robot musi chronić sam siebie, jeśli tylko nie stoi to w sprzeczności z Pierwszym lub Drugim Prawem.

Prawa te tak dobrze opisują nasze oczekiwania względem robotów, że wykładane są współczesnym adeptom robotyki, nie bacząc na to, że sam Asimov w tym samym zbiorze opowiadań pokazał, jak mimo pozorów logiki i wewnętrznej spójności, prawa te mogą doprowadzić do nieoczekiwanych i niebezpiecznych zachowań maszyny im podległej.

Robot Kotaro. Autorem zdjęcia jest Manfred Werner. Ilustracja na licencji CC BY-SA 3.0

Człekokształtny robot, siedzący w rozkroku i patrzący na coś z zainteresowaniem

Przez długi czas jednak, rozważania na temat roboetyki były domeną raczej fantastów niż naukowców, którzy skupiali się raczej nad udoskonalaniem metod sztucznej inteligencji, a mniej nad tym, by ta inteligencja miała sumienie. Opublikowana w najnowszym numerze „Proceedings of the IEEE” praca zatytułowana „Moral Decision-making in Autonomous Systems: Enforcement, Moral Emotions, Dignity, Trust and Deception” jest próbą zwrócenia uwagi na braki, z jakimi boryka się roboetyka oraz proponuje i omawia szereg mechanizmów, które miałyby zapewnić że rozwój inteligentnych maszyn będzie przebiegał z zachowaniem naszych, ludzkich norm moralnych i etycznych.

Pierwszym z tych mechanizmów jest „ogranicznik etyczny”. Jako przykład zastosowania, autorzy podają roboty bojowe, które choć obecnie wymagają decyzji człowieka zanim użyją broni, to w przyszłości zapewne będą samodzielnie decydować o przerwaniu ludzkiego życia. W tym wypadku ogranicznik, który w rzeczywistości jest algorytmem wbudowanym w program sterujący robotem, oprócz upewnienia się, że cel został prawidłowo zidentyfikowany, miałby za zadanie ocenić, czy użycie broni będzie zgodne np. z konwencjami genewskimi.

Kolejny mechanizm, to „poczucie winy”, które mogłoby być wywoływane, na przykład przez zadziałanie wbrew wskazaniom ogranicznika, a jego efektem byłoby czasowe lub trwałe ograniczenie zdolności robota do używania broni ofensywnej. Inny problem, nad którym zastanawiają się autorzy pracy, to jak upewnić się, że roboty będą w stanie respektować poczucie ludzkiej godności. Mając na uwadze, że w przyszłości roboty mają często pełnić funkcje pielęgniarskie w naszych domach, szpitalach czy hospicjach, koniecznym staje się takie ich skonstruowanie, by ich działania nie powodowały u ich podopiecznych poczucia wstydu, czy zażenowania. Przykładowo, byłoby wskazane aby robot np. „odwracał wzrok” gdy pacjent się przy nim przebiera lub aby dyskretnie się oddalił, gdy temat rozmowy między ludźmi zahacza o tematy bardzo osobiste.

Autorzy dyskutują również czy robotowi wolno w pewnych przypadkach oszukać człowieka. Na pierwszy rzut oka, chcielibyśmy aby roboty zawsze były bezwzględnie szczere wobec ludzi. Autorzy po raz kolejny przywołują jednak przykład robota bojowego, dla którego zdolność oszukiwania wroga może zwiększyć prawdopodobieństwo wykonania misji. Dla równowagi mamy też zastosowanie pokojowe: roboty uczestniczące w akcjach poszukiwawczo-ratunkowych niekiedy muszą być zmuszone oszukać ofiarę wypadku, aby zwiększyć jej szanse przeżycia (zachowanie porównywalne do słynnego „to nie będzie bolało”). Z kolei robot-pielęgniarz, może być zmuszony oszukać pacjenta z chorobą Alzheimera, tak aby dobrowolnie poddał się zabiegom terapeutycznym. Nawet najzdrowsi pacjenci lubią też słyszeć komplementy na swój temat, które nie muszą mieć pokrycia w rzeczywistości – robot powinien więc uwzględniać tę potrzebę swojego opiekuna, gdy ten zada sakramentalne „czy ładnie dziś wyglądam”?

Więcej informacji:ResearchBlogging.orgArkin, R., Ulam, P., & Wagner, A. (2012). Moral Decision Making in Autonomous Systems: Enforcement, Moral Emotions, Dignity, Trust, and Deception Proceedings of the IEEE, 100 (3), 571-589 DOI: 10.1109/JPROC.2011.2173265
PEŁNY TEKST ARTYKUŁU
Print Friendly, PDF & Email

O autorze

Michał Jarosz

Inżynier automatyki i robotyki. Utrzymuje się z projektowania systemów bazodanowych. Dorywczo koordynator badań klinicznych. Członek Association for Computing Machinery. Założyciel i opiekun zespołu obliczeń rozproszonych BOINC@Poland. Na koncie jeden maraton i aspiracje do kolejnych.