Technologie

Narodziny roboświadomości? Część 2: O robocie, który zmienił światopogląd

Wizualizacja małego robota mobilnego w symulowanym środowisku.
Nie jest to co prawda robot z opisywanych artykułów, ale ma konstrukcję zbliżoną do pierwszego z nich. Nie udało nam się niestety uzyskać od autorów ilustracji przedstawiających rzeczywiste modele. Ilustracja na licencji Creative Commons Attribution-Share Alike 3.0 Unported autorstwa Trolli101 z Wikimedia Commons

Wizualizacja małego robota mobilnego w symulowanym środowisku.

Nie jest to co prawda robot z opisywanych artykułów, ale ma konstrukcję zbliżoną do pierwszego z nich. Nie udało nam się niestety uzyskać od autorów ilustracji przedstawiających rzeczywiste modele. Ilustracja na licencji Creative Commons Attribution-Share Alike 3.0 Unported autorstwa Trolli101 z Wikimedia Commons

Zachęceni popularnością zeszłotygodniowego artykułu o narodzinach samoświadomości u robotów, postanowiliśmy iść za ciosem. W dzisiejszym artykule poznamy robota, który dzięki introspekcji potrafi zmienić swój światopogląd, oraz jego młodszego brata, który potrafi obejść uszkodzenia własnego mózgu.

Tydzień temu poznaliśmy pracę badaczy z Cornell University. Opracowany przez nich robot potrafi samodzielnie stworzyć wewnętrzny model swojej konstrukcji, a następnie korzystając zeń nauczyć się przemieszczać. Potrafi też, w przypadku uszkodzenia, odpowiednio zmodyfikować model i sposób poruszania. To projekt z 2006 roku. Niecałe trzy lata później, Juan Cristobal Zagal i Hod Lipson (który brał udział także w poprzednim projekcie, a obecnie jest kierownikiem Laboratorium Syntezy Obliczeniowej w Cornell) opublikowali wyniki swoich prac nad robotami, których zdolności samoanalizy skupiają się bardziej na umyśle, niż na ciele.

Ich eksperymenty polegały w uproszczeniu, na skonstruowaniu robota wyposażonego w dwa „mózgi”. W rzeczywistości były to po prostu dwa osobne programy działające równolegle. Pierwszy z nich, odpowiedzialny był za czynności „wrodzone” – nazywać go będziemy dalej „sterownikiem”. W tym przypadku jego zadaniem było reagowanie na sygnały z czujników optycznych i sterowanie silnikami robotów.

Drugi mózg – dalej będziemy go nazywać „obserwatorem” – nie miał bezpośredniego kontaktu ze światem zewnętrznym. Jego praca polegała na obserwacji i analizie wyników pracy sterownika. Nie miał przy tym wglądu w jego strukturę (czyli wewnętrzny sposób działania). Cała jego wiedza opierała się na sygnałach otrzymywanych i wysyłanych przez sterownik. Dostał on także możliwość, gdyby zaszła taka potrzeba, modyfikacji tych sygnałów.

Robota (a właściwie jego komputerowy model, bo cały eksperyment był przeprowadzany w pamięci komputera) umieszczono na płaszczyźnie, na której znajdowały się źródła światła niebieskiego i czerwonego. Kolor niebieski symbolizował w tym przypadku nagrodę, a kolor czerwony karę. Oparty na sztucznej sieci neuronowej sterownik robota, dość szybko nauczył się tak poruszać, aby unikać źródeł czerwonego światła, a kierować ku światłu niebieskiemu. W tym czasie obserwator, analizował jego postępowanie, wytwarzając w ten sposób w swoim wnętrzu model sterownika.

W pewnym momencie badacze zmienili zasady gry. Teraz kolor czerwony oznaczał nagrodę, a niebieski karę. Sterownik, wytrenowany w odmiennych warunkach, nie potrafił sobie samodzielnie poradzić z taką zmianą i nadal podążał w kierunku niebieskich świateł, a unikał czerwonych.

Na szczęście obserwator „zauważył”, że dotychczasowe zachowanie zaczęło nagle przynosić dużo mniejsze korzyści. Opierając się na wewnętrznym modelu sterownika, oraz analizując jego reakcje na bodźce, udało mu się wypracować rozwiązanie tego problemu. Wykorzystał on swoje możliwości wpływania na sygnały wejściowe sterownika i „zamienił” bodźce odpowiadające obu kolorom. Od tego momentu, część „mózgu” odpowiedzialna za poruszanie się robota, zamiast koloru czerwonego widziała kolor niebieski, a zamiast niebieskiego – czerwony.

Tym sposobem, nie zmieniając sposobu w jaki działał sterownik (a nawet nie wiedząc nic o jego wewnętrznej budowie), obserwator przywrócił robotowi sprawność w podążaniu ku kolorowi będącemu nagrodą.

Drugi z opisanych eksperymentów dotyczył robota o trochę innej konstrukcji, ale jego „mózg” także składał się ze sterownika i obserwatora. Nadal zadaniem było podążanie w kierunku źródeł światła niebieskiego i unikanie światła czerwonego.

Tym razem jednak badacze postanowili sprawdzić, jak robot poradzi sobie w sytuacji, gdy jego sterownik ulegnie uszkodzeniu, lub jego praca będzie zakłócana z zewnątrz.

Także w tym przypadku obserwator zauważył nagły spadek w sprawności działania pierwszego mózgu. Ponownie, korzystając z wewnętrznego modelu, tak zmodyfikował sygnały wejściowe i wyjściowe, aby jak najlepiej skompensować usterkę. Okazało się nawet, że w niektórych przypadkach możliwe było odzyskanie 100% sprawności sprzed awarii.

Można się zastanawiać, jakie jest praktyczne zastosowanie takich eksperymentów (poza oczywistymi dążeniami do skonstruowania Skynetu).

Autorzy argumentują, że możliwość modelowania pracy sterownika, a także kompensacji jego niepożądanych zachowań, znajdzie zastosowanie w przemyśle tam, gdzie z różnych powodów (czasem tak trywialnych jak prawo autorskie) nie istnieje możliwość bezpośredniego zmodyfikowania lub wymiany niesprawnego elementu. W samej robotyce zaś, zaproponowany sposób konstrukcji układów sterowania może zaowocować robotami, które szybciej i lepiej będą w stanie zaadaptować się do zmiennego środowiska.

Print Friendly

O autorze

Michał Jarosz

Inżynier automatyki i robotyki. Utrzymuje się z projektowania systemów bazodanowych. Dorywczo koordynator badań klinicznych. Członek Association for Computing Machinery. Założyciel i opiekun zespołu obliczeń rozproszonych BOINC@Poland. Na koncie jeden maraton i aspiracje do kolejnych.