Premiera serialu HBO "Westworld" (całkiem dobrego, przynajmniej tak piszą koledzy z sPlay) wzbudziła zainteresowanie robotami łudząco podobnymi do ludzi. To, oczywiście, serial s-f dziejący się w dosyć odległej przyszłości - wiele jeszcze wody w Wiśle upłynie, zanim roboty będą wyglądać jak Evan Rachel Wood i James Marsden:
Obecnie, niestety, roboty wyglądają raczej tak:
"Westworld", roboty i odpowiedzialność za nie
Jednak fabuła "Westworld" daje pretekst do rozważań o tym, jakie wyzwania - pod względem prawnym - niesie ze sobą rozwój robotyki. Pewna wskazówką co do kierunku "trzy prawa robotyki" Isaaca Asimova:
Sprawdź polecane oferty
Allegro 1200 - Wyciągnij nawet 1200 zł do Allegro!
Citi Handlowy
IDŹ DO STRONYTelewizor - Z kartą Simplicity możesz zyskać telewizor LG!
Citi Handlowy
IDŹ DO STRONYRRSO 20,77%
- Robot nie może skrzywdzić człowieka, ani przez zaniechanie działania dopuścić, aby człowiek doznał krzywdy.
- Robot musi być posłuszny rozkazom człowieka, chyba że stoją one w sprzeczności z Pierwszym Prawem.
- Robot musi chronić sam siebie, jeśli tylko nie stoi to w sprzeczności z Pierwszym lub Drugim Prawem.
Kluczową kwestią, którą będzie należało rozważyć, to ustalenie, czy roboty będą posiadały zdolność prawną. Zdolność prawna to możliwość bycia podmiotem praw i obowiązków - np. posiadania majątku, ale i ponoszenia odpowiedzialności swoje czyny. Jeśli uznamy, że roboty to maszyny jak każde inne, wówczas sprawa odpowiedzialności np. za szkody przez nie wyrządzone będzie rozstrzygana tak, jak to ma miejsce obecnie - w zależności od sytuacji, odpowiadać może producent, właściciel albo użytkownik.
Ale takie podejście jest co najmniej problematyczne. Jak można sobie łatwo wyobrazić, szkoda może być konsekwencją wadliwie działającej sztucznej inteligencji. Może w takiej sytuacji odpowiedzialność np. za pobicie przez krewkiego androida wyglądającego jak Rutger Hauer ponosić powinien twórca oprogramowania? Ale i tutaj nie ma oczywistego rozwiązania. Odpowiedzialność autora za wady programu komputerowego jest dosyć ograniczona (ograniczona kwotą zapłaconą za licencją); ba, nawet naruszenie zasad gwarancji nie niesie za sobą większych konsekwencji:
Programy, utwory i usterki
Koresponduje to z treścią Prawa autorskiego (przypominamy: program komputerowy to utwór, nie rzecz), które stanowi:
Niektórzy mają wątpliwości, czy pojęcie "zamówiony utwór" dotyczy wyłącznie oprogramowania tworzonego na zamówienie, czy również gotowego programu. Ale nawet jeśli uznać, że i gotowy program zainstalowany na pokładzie (w głowie?) robota spełnia wymogi tego przepisu - to i tak odpowiedzialność na podstawie cytowanego przepisy wygasa po kilku miesiącach od odbioru utworu (programu).
Może zatem właściwsze byłoby ustalenie odpowiedzialności odszkodowawczej na podstawie ogólnych norm kodeksu cywilnego? W końcu art. 415 kodeksu stwierdza, że
Ale i tutaj mam wątpliwości, czy to słuszna droga. Sztuczna inteligencja (np. taka budowana na bazie systemu IBM Watson) to, wg definicji Johna McCarthy'ego "konstruowanie maszyn, o których działaniu dałoby się powiedzieć, że są podobne do ludzkich przejawów inteligencji". Zatem istnieje prawdopodobieństwo, graniczące z pewnością, że działania inteligentnych androidów mogą być nieoczekiwane nawet dla twórców oprogramowania. Może sensowniejsze byłoby wprowadzenie... odpowiedzialności samych robotów?
Na pierwszy rzut oka brzmi to absurdalnie: maszyna miałaby sama ponosić odpowiedzialność za swoje czyny, tak jak człowiek? Ale przecież taki sam zarzut moglibyśmy podnieść w stosunku do chociażby równie sztucznych tworów, takich jak spółki z ograniczona odpowiedzialnością czy akcyjne. One w końcu też istnieją jako osobne byty prawne, posiadają swój majątek, odpowiadają samodzielnie za zobowiązania.
Co więcej, w historii znajdziemy przykłady, gdy nie tylko ludzie odpowiadali za swoje czyny. W prawie średniowiecznym zwierzęta (np. świnie) mogły ponosić odpowiedzialność karną, np. za morderstwo.
Czy roboty będą miały PESEL?
A przyznanie robotom zdolności prawnej - niezbędnej, aby ponosiły osobistą odpowiedzialność za swoje czyny, zarówno w zakresie cywilnym, jak i karnym - to dopiero początek prawnej rewolucji. Nowy status konstruowanych przez człowieka urządzeń wymagałby zastanowienia się nad innymi konsekwencjami. Czy androidy powinny posiadać numer PESEL i płacić podatki? A co ze składką na NFZ i ZUS (o ile nie zostanie zlikwidowana w ramach jednolitego podatku dochodowego), w końcu emerytura dla robotów nie śniła się nawet Benderowi z Futuramy - najfajniejszemu robotowi w historii ludzkości.
Ale te wszystkie wątpliwości dotyczą raczej odległej przyszłości. Zanim doczekamy się realiów nakreślonych przez twórców "Westworld", będziemy mieli dużo czasu i na przyzwyczajenie się do obecności inteligentnych urządzeń, i na ustalenie prawnych zasad regulujących ich obecność.