Prawa robotów Asimova albo o etyce w robotyce

Share on facebook
Share on twitter
Share on linkedin
Czas czytania: 8 min.
Zmiana, ciągła zmiana, nieuchronna zmiana. Jest dominującym czynnikiem w dzisiejszym społeczeństwie. Żadna rozsądna decyzja nie może być już podjęta bez uwzględnienia nie tylko świata, jaki jest, ale także bez uwzględnienia świata, jaki będzie - a to oczywiście oznacza, że musi istnieć dokładne postrzeganie świata, jaki będzie. To z kolei oznacza, że nasi mężowie stanu, nasi biznesmeni, nasi everymani muszą przyjąć sposób myślenia rodem z fantastyki naukowej.
Isaac Asimov
Isaac Asimov
o science-fiction

Gdy science oddziela się od fiction

Dzisiejszy artykuł otwiera cytat Isaaca Asimova. Opisuje on znaczenie myślenia perspektywicznego. Można założyć, że według niego zaznajomiony z aktualnymi wydarzeniami i otwarty na innowacyjne sposoby myślenia wywołane zmianą okoliczności zewnętrznych powinien być każdy z nas. 

Opowiadania science fiction są często podstawą do dyskusji na temat nowych zjawisk i związanych z nimi problemów społecznych czy moralnych (a raczej: jednych i drugich). Celem wielu takich opowiadań tworzonych przez twórców z kręgu sci-fi jest i było pokazanie przyszłości pod wpływem nowych technologii. Krótkie opowiadanie z 1942 roku, Zabawa w Berka (oryg. ang. Runaround) autorstwa Isaaca Asimova, jest takim przykładem starszej literatury, która zachęca do patrzenia w przyszłość i myślenia o przyszłości poprzez pokazywanie wyzwań stojących przed przyszłymi pokoleniami.

Bo z czasem to, co tylko pomyślane, niespodziewane staje się realne, a to, co pozwalało nam analizować wymyślone problemy, może nadejść i poważnie namieszać.  

Trzy prawa robotyki Asimova - wprowadzenie

Kwestia robotów, będąca tematem wielu opowiadań Asimova, z biegiem lat tylko zyskała na znaczeniu. Fikcyjne – jak to w sci-fi – pomysły wpłynęły nawet na rozwój przyszłych technologii. W swoich opowiadaniach Asimov formułował prognozy i wyobrażał sobie świat robotyki. Inaczej: wyobrażał sobie, jak mogą działać technologie i jak ludzie będą ze sobą współdziałać, gdy to wszystko zacznie działać. 

Sformułowane we wspomnianym zbiorze Runaround trzy prawa robotyki Asimova są nadal wysoko cenione i brane pod uwagę przy rozwiązywaniu konfliktów wszędzie tam, gdzie pojawia się technika robotyczna. Talent do pisania ciekawych i jednocześnie rozstrzygających historii uczynił pisarza jednym z najpopularniejszych autorów science fiction na świecie. Spróbujemy rozpoznać jego intencję patrząc na opowiadanie zawierające trzy prawa robotyki – bodaj najważniejszy wkład w sposób myślenia science fiction.

Zabawa w Berka (1942)

Ogólnym tematem opowiadań w zbiorze jest relacja między robotami i ludźmi oraz przydatność technologii robotycznych w XXI wieku. W swojej wizji Asimov ukazuje możliwe niebezpieczeństwa i trudności oraz przewiduje możliwości i korzyści dla naszego społeczeństwa, jakie miała według niego przynieść robotyczna rewolucja na tle moralności i konfliktów moralnych. Zwróćmy uwagę, że Asimov napisał tę historię prawie 30 lat przed lądowaniem Neila A. Armstronga na Księżycu. W 1940 roku zbudowano pierwszy elektroniczny komputer cyfrowy, wynaleziono też pierwszy kolorowy telewizor. 

Pewne rzeczy...
...nigdy się nie starzeją.

Asimov był zatem wizjonerem, który wyprzedzał swoje czasy. Jako pisarz science fiction starał się o wyrażenie swoich wyobrażeń o przyszłości w barwnych i naukowo uzasadnionych historiach. Matematycznie: wyobraźnia plus nieco wiedzy naukowej plus talent pisarski równa się niesamowitym dziełom docenianym nawet w 80 lat później.

Prawa odgrywają główną rolę w tej krótkiej historii. 

Trzy prawa robotów

Pierwsze z trzech praw pokazuje konieczność wprowadzenia moralności do robotów i jest najwcześniejszą formą czegoś, co uzyskało nazwę roboetyka. Zapewnia ono bezpieczeństwo ludziom w kontaktach z robotami, ale także ochronę człowieka przez robota. 

I. Robot nie może zranić człowieka ani poprzez zaniechanie działania pozwolić, 

aby człowiek doznał obrażeń.

II. Robot musi być posłuszny rozkazom człowieka, chyba że

stoją one w sprzeczności z Pierwszym Prawem.

III. Robot musi chronić samego siebie, o ile tylko 

nie stoi to w sprzeczności z Pierwszym lub Drugim Prawem.

W opowiadaniu Roboty i Imperium (Robots and Empire) Asimov dodał nadrzędne prawo zerowe.

0. Robot nie może skrzywdzić ludzkości, lub poprzez zaniechanie działania doprowadzić do uszczerbku dla ludzkości.

Sama składnia treści trzech pierwotnych praw robotów Asimova podkreśla referencyjność; ich zależność względem siebie. O co tu chodzi? Przed około 1940 rokiem prawie każda historia ze zbioru tzw. fikcji spekulatywnej (od ang. speculative fiction) – czyli science-fiction, fantasy, historia alternatywna i wszystko, co podobne, obok i pomiędzy – z udziałem robotów podążała za modelem Frankensteina. Robot musiał więc nieustannie otrzymywać od człowieka instrukcje, co ma robić, a przy braku takiej albo jakiejkolwiek innej kontroli właściwie wpadał w szał. Młody Isaac Asimov miał tego dość i postanowił pisać historie o sympatycznych robotach z zaprogramowanymi zabezpieczeniami, które nie pozwalałyby im na wzniecanie awantur. Rozmowa z jego redaktorem, Johnem W. Campbellem, pomogła mu ułożyć te zabezpieczenia w prawa.

Rzecz w tym, że prawa Asimova obejmują większość oczywistych sytuacji, ale daleko im do bezbłędności. Pisarz pokonał daleką drogę i napisał jeszcze wiele o tym, jak prawa kolidują ze sobą i generują nieprzewidywalne zachowania. W wielu z nich powracającą postacią była „robopsycholog” Susan Calvin, która, nie całkiem przypadkowo, była genialnym logikiem nienawidzącym ludzi. Cóż, zawód adekwatny nie tylko do potrzeb nowego świata, ale i do profilu zawodowego kobiety go wykonującej. 

Uwaga, masz nową aktualizację - czyli czy prawa robotów Asimova mają jeszcze sens?

W bazie informacji na temat europejskiej działalności badawczo-rozwojowej CORDIS czytamy, że kanadyjski profesor filozofii Tom Sorell dowodził, że trzy prawa Asimova wydają się naturalną odpowiedzią w obliczu koncepcji, wedle której roboty staną się pewnego dnia pospolitym zjawiskiem. Chodzi o dzień, w którym będzie trzeba je tak zaprogramować wewnętrznie, aby nie wyrządzały krzywdy ludziom. Jednak, jak argumentuje Sorell, prawa Asimova skupiają się wokół wartości moralnej, jaką jest zapobieganie wyrządzaniu krzywdy ludziom, niełatwo je więc zinterpretować. Warto wspomnieć że Sorell jako ekspert w dziedzinie etyki robotycznej pracował nad finansowanym ze środków UE projektem stworzenia robotycznego asystenta, którego rola ma polegać na wspomaganiu osób starszych w prowadzeniu niezależnego życia.

Dron bojowy
Pierwszy hunter-killer (z ang. myśliwy-zabójca) - amerykański dron USAF MQ-9 Reaper.

Prawa Asimova nie wydają się już tak solidne, kiedy weźmiemy pod uwagę kierowane przez ludzi drony bojowe zaprojektowane do zabijania z oddali. Paradoksalnie, jeżeli sterowany przez człowieka robot ma ratować życie sterującego i innych ludzi zabijając… innych ludzi, którzy ich atakują, to można powiedzieć, że przestrzega pierwszego prawa i jednocześnie je łamie. Ponadto jeżeli dron jest sterowany przez człowieka, to można argumentować, że błąd leży po stronie człowieka, a nie drona – na przykład w przypadku utraty życia w sytuacjach bojowych. W wojskach wyposażonych w drony znacznie spadnie ogólna liczba ofiar wśród ludzi. Ale czy na pewno tak będzie, gdy uwzględnimy prawa robotów Asimova? 

Podczas gdy prawa Asimova przez dekady przyświecały projektantom robotów, to najprawdopodobniej nadszedł czas na ponowną ocenę ich skuteczności i otwarcie dyskusji nad nowym zbiorem praw, który sprawdzi się w świetle wzbudzających podziw osiągnięć w robotyce i technologii sztucznej inteligencji. 

Gdzie spotykamy prawa robotów Asimova

Oprócz literatury i oczywistego faktu, że będziemy ich potrzebować, jeżeli rozwój robotyki i sztucznej inteligencji będzie przyspieszał jak dotychczas, prawa Asimova pojawiły się jeszcze w innych mediach różnego gatunku.

Anime i manga

Wspomnijmy na początek o Ghost in The Shell, które powstało również w wersji kinowej ze Scarlett Johanson w roli tytułowej. Pierwowzoru anime prawdę mówiąc zbyt dobrze nie znamy, ale przykład pochodzi właśnie z tego rodzaju filmów animowanych. W Ghost in The Shell: Innocence wspomina się o Kodeksie Moralnym #3: utrzymanie istnienia bez zadawania obrażeń ludziom. Gynoidy, roboty przypominające wyglądem dojrzałe kobiety, łamią to prawo tworząc celowe usterki we własnym oprogramowaniu.

Scarlett Johannson - Ghost in the Shell
Scarlett Johanson jako filmowa major Motoko Kusanagi.

Astro Boy z 2009 roku. Osamu Tezuka prawdopodobnie opracował swoje zasady niezależnie od Asimova i jest ich więcej. Oprócz zwykłego „Nie krzywdź ludzi” istnieją inne prawa, takie jak prawo zabraniające robotom podróżowania za granicę (chyba że zostanie udzielone pozwolenie), zakaz zachowywania się jak dzieci dorosłym robotom i zakaz przeprogramowywania przypisanej robotowi płci. Jednak już pierwsze prawo mówi, że roboty mają uszczęśliwiać ludzi. Tezuka podobno nie lubił praw Asimova z powodu implikacji, że czujący, sztucznie inteligentny robot nie może być uważany za osobę, i wymyślił swoje własne prawa robotyki.

  1. Roboty muszą służyć ludzkości.
  2. Roboty nie mogą zabijać ani krzywdzić ludzi.
  3. Robot musi nazywać swojego ludzkiego stwórcę „ojcem”.
  4. Robot może stworzyć wszystko z wyjątkiem pieniędzy.
  5. Robot nie może wyjeżdżać za granicę bez pozwolenia.
  6. Roboty płci męskiej i żeńskiej nie mogą zmieniać swojej płci.
  7. Robot nie może zmieniać swojej twarzy, aby stać się innym robotem.
  8. Robot, który został stworzony jako dorosły, nie może stać się dzieckiem.
  9. Robot nie może ponownie złożyć robota, który został zdemontowany przez człowieka.
  10. Roboty nie mogą niszczyć ludzkich domów ani narzędzi.

Komiks

Podobnie jak jego odpowiednik z gier, Mega Man jest ograniczony przez zasady z jedną różnicą. Roboty mogą szkodzić ludziom, jeśli ich bezczynność spowodowałaby większą szkodę dla innych ludzi. To pozwala Mega Manowi i jego kolegom-robotom rozbroić i zneutralizować grupę anty-robotycznych ekstremistów, kiedy ci zaczynają masowo strzelać do ludzi.  Przeprogramowanie robotów na broń wojenną nadpisuje trzy prawa Asimova.

Megaman pixel art
Mega Man w pikselozie.

Jeszcze przykłąd z serii X-Men. Danger, czująca A.I. z Danger Room, mogła nakłaniać ludzi do zabijania się i programować inne zabójcze roboty, by wykonywały za nią brudną robotę. Ale kiedy Emma rzuciła wyzwanie Danger, aby ta po prostu odcięła jej głowę, Danger nie mogła tego zrobić. Danger nie może bezpośrednio zabijać ludzi.

Gry wideo

W serii Halo AI jest technicznie związana trzema prawami. Prawo to nie obejmuje nie-ludzi, co pozwala jej bez problemu uczestniczyć w mordowaniu kosmitów. Dodatkowo „smart AI” są w stanie widocznie zignorować trzy prawa, gdy wziąć pod uwagę jak wiele z nich jest używanych do operacji wojskowych przeciwko innym ludziom.

Portal 2 daje nam taką perełkę w postaci monologu: „Wszystkie wojskowe androidy zostały nauczone czytać i otrzymały kopię Trzech Praw Robotyki. Aby się nimi dzielić.” Przewrotnie.

W nagradzanej strategii kosmicznej Stellaris jedno z możliwych wydarzeń losowych może doprowadzić do powstania Trzech Praw. Zmusza to syntetyczne populacje planet do trwałego poddania się, ale uniemożliwia powstanie morderczej AI na terenie naszego kosmicznego imperium. Jeśli jednak takie powstanie wybuchnie na innej panecie, to roboty wreszcie będą mogły do niego dołączyć. Rzecz jest o tyle ciekawsza, że roboty próbują na początku dialogu, a każda nasza decyzja wpływa na rozwój wydarzeń. 

Roboty z gry Portal 2
"Dobre" roboty z Portal 2.

Film animowany, animacje

Jest tego całkiem sporo. Robot Chicken studia [adult swim] – skecz „I, Rosie” przedstawia sprawę kryminalną, w której trzeba ustalić, czy Rosie jest winna morderstwa. Pan Spacely nalega, że robot jest niewinny, ponieważ roboty muszą przestrzegać trzech praw robotyki, podczas gdy pan Cogswell twierdzi, że całe te prawa to stek bzdur. W każdym razie Rosie zostaje zezłomowana, tak na wszelki wypadek.

Robot Chicken
Adult Swim nie przebiera w środkach.

W poszukiwaniu Morty’ego w serialu Rick and Morty Rick natrafia na swoją hologramową podobiznę napędzaną przez AI. Dochodzi do wymiany zdań:

  • Rick: Nie mów mi, że zyskałeś zdolność odczuwania i próbowałeś przejąć władzę!
  • Alternatywny Holo-Rick AI: Co? To jest jakieś rasistowska, obraźliwa, oskarżająca,, Asimovska bzdura prawna!

W kreskówce dla dorosłych The Simpsons spłukany Homer nie ma pieniędzy na skonstruowanie maszyny, więc ubiera się w kostium i sam walczy w zmaganiach robotów. Dociera do finału, w którym jego przeciwnik ograniczony prawami Asimova rozpoznaje nieporadne przebranie i odmawia dalszej walki.

Film

W roku 2035 humanoidalne roboty służą ludzkości, którą chronią trzy prawa robotyki Isaaca Asimova. Del Spooner (Will Smith), detektyw z wydziału zabójstw policji w Chicago, nienawidzi robotów i nie ufa im po tym, jak robot uratował go z wypadku samochodowego, pozwalając jednocześnie utonąć 12-letniej dziewczynce. Maszyna kierowała  się wówczas wyłącznie zimną logiką i szansami na przeżycie. 

Gwiezdnych Wojnach droidy są zaprogramowane tak, by nie szkodzić żadnej inteligentnej istocie, nie tylko ludziom. To programowanie może być modyfikowane legalnie lub nielegalnie. W galaktyce krążą droidy wojskowe i droidy-zabójcy, i tak też droidy czwartego stopnia nie mają programowania „no-harm” (z ang. nie krzywdź), ponieważ są droidami wojskowymi.

W filmie Obcy: decydujące starcie (Aliens) Bishop parafrazuje pierwsze prawo i objaśnia, dlaczego nigdy nie będzie zabijać ludzi tak, jak Ash zrobił to w pierwszym filmie. Mówi, że tamten model był wadliwy i zawsze były z nim jakieś problemy. Ash jednak wyraźnie działał pod rozkazami firmy, więc Ripley nie ufa Bishopowi w ogóle, choć ten okazuje się lojalny. Fanowska teoria głosi, że Ash miał zaprogramowane prawa, a jako że zaatakował Ripley, to bardzo szybko zszedł z właściwych torów przypuszczalnie z powodu logicznego konfliktu między oprogramowaniem bezpieczeństwa a rozkazami z korporacji Weyland-Yutani.

Plakat Aliens
Trochę odgrzany kotlet, ale klasyczny.
Ja, Robot - kadr z filmu
Uważaj, Will.

Bonus: w realu

Robotycy traktują Trzy Prawa bardzo poważnie. Asimov żył wystarczająco długo, by zobaczyć, jak to robią, co go bezgranicznie zadowoliło. Aby wprowadzić w życie Trzy Prawa, potrzebne jest zaprogramowanie całej grupy czynników takich jak rozpoznawanie istoty ludzkiej jako różnej od wszystkiego innego, pewna zdolność rozumowania pozwalająca rozróżnić, czym jest „krzywda” i ocenić różne jej poziomy, zdolność przetwarzania języka naturalnego w celu określenia „rozkazów” w porównaniu z „sugestiami” i autorytetem, i właściwie tyle tego, że aż nie wiadomo, co jeszcze. Podczas gdy programiści i inżynierowie bezwzględnie poszukują tego świętego Graala reguł dla dobra ludzkości, to okazuje się, że droga do niego jest naprawdę długa i wiedzie pod górę. I tak też powstają wątpliwe eksperymenty pokroju tego, w którym zbudowano robota, który nie miał innego celu niż uderzanie ludzi w ramię… aby naukowcy mogli zebrać cenne dane na temat tego, jaki poziom siły spowoduje szkody u człowieka. Dobrze wyszkolone psy pracujące, a nawet dobrze wyszkolone psy domowe, pracują i żyją według podobnych zasad. Pies prawie nigdy nie zaatakuje człowieka bez powodu, będzie słuchał komend swojego właściciela i prawie zawsze będzie chronił swojego właściciela zanim obroni się sam. Najlepszy przyjaciel człowieka ,w rzeczy samej.

Tylko czy robot też na pewno nim będzie?

Podziel się:

Share on facebook
Share on linkedin
Share on twitter
Oskar Pacelt

Oskar Pacelt

Autor i redaktor ponad 200 wpisów na Botland Blog. Wierzy, że udany tekst jest jak list wysłany w przyszłość. W życiu najbardziej interesuje go prawda, pozostałych zainteresowań zliczyć nie sposób. Zajmuje się ciekawostkami ze świata technologii i nauki. Najlepszy pływak w Botland.

Zobacz więcej:

Dodaj komentarz

Twój adres email nie zostanie opublikowany.