1. Home -
  2. Technologie -
  3. Czy to już czas na stworzenie ustawy o robotach? "Westworld", androidy i prawo

Czy to już czas na stworzenie ustawy o robotach? "Westworld", androidy i prawo

Prawo lubi spokój i tradycję, technologie natomiast - to żywioł i dynamiczny rozwój. Nic dziwnego zatem, że zazwyczaj to prawa dopasowujemy do zmian technologiczny, a nie odwrotnie. Rozwój sztucznej inteligencji powoduje, że już za kilka lat normą będą kontakty z robotami - jak w serialu "Westworld". Czy czas na dopasowanie prawa i stworzenie norm dla androidów?

Premiera serialu HBO "Westworld" (całkiem dobrego, przynajmniej tak piszą koledzy z sPlay) wzbudziła zainteresowanie robotami łudząco podobnymi do ludzi. To, oczywiście, serial s-f dziejący się w dosyć odległej przyszłości - wiele jeszcze wody w Wiśle upłynie, zanim roboty będą wyglądać jak Evan Rachel Wood i James Marsden:

Obecnie, niestety, roboty wyglądają raczej tak:

"Westworld", roboty i odpowiedzialność za nie

Jednak fabuła "Westworld" daje pretekst do rozważań o tym, jakie wyzwania - pod względem prawnym - niesie ze sobą rozwój robotyki. Pewna wskazówką co do kierunku  "trzy prawa robotyki" Isaaca Asimova:

  1. Robot nie może skrzywdzić człowieka, ani przez zaniechanie działania dopuścić, aby człowiek doznał krzywdy.
  2. Robot musi być posłuszny rozkazom człowieka, chyba że stoją one w sprzeczności z Pierwszym Prawem.
  3. Robot musi chronić sam siebie, jeśli tylko nie stoi to w sprzeczności z Pierwszym lub Drugim Prawem.
Rozwiń

Kluczową kwestią, którą będzie należało rozważyć, to ustalenie, czy roboty będą posiadały zdolność prawną. Zdolność prawna to możliwość bycia podmiotem praw i obowiązków - np. posiadania majątku, ale i ponoszenia odpowiedzialności swoje czyny. Jeśli uznamy, że roboty to maszyny jak każde inne, wówczas sprawa odpowiedzialności np. za szkody przez nie wyrządzone będzie rozstrzygana tak, jak to ma miejsce obecnie - w zależności od sytuacji, odpowiadać może producent, właściciel albo użytkownik.

Ale takie podejście jest co najmniej problematyczne. Jak można sobie łatwo wyobrazić, szkoda może być konsekwencją wadliwie działającej sztucznej inteligencji. Może w takiej sytuacji odpowiedzialność np. za pobicie przez krewkiego androida wyglądającego jak Rutger Hauer ponosić powinien twórca oprogramowania?  Ale i tutaj nie ma oczywistego rozwiązania. Odpowiedzialność autora za wady programu komputerowego jest dosyć ograniczona (ograniczona kwotą zapłaconą za licencją); ba, nawet naruszenie zasad gwarancji nie niesie za sobą większych konsekwencji:

Programy, utwory i usterki

Koresponduje to z treścią Prawa autorskiego (przypominamy: program komputerowy to utwór, nie rzecz), które stanowi:

Niektórzy mają wątpliwości, czy pojęcie "zamówiony utwór" dotyczy wyłącznie oprogramowania tworzonego na zamówienie, czy również gotowego programu. Ale nawet jeśli uznać, że i gotowy program zainstalowany na pokładzie (w głowie?) robota spełnia wymogi tego przepisu - to i tak odpowiedzialność na podstawie cytowanego przepisy wygasa po kilku miesiącach od odbioru utworu (programu).

Może zatem właściwsze byłoby ustalenie odpowiedzialności odszkodowawczej na podstawie ogólnych norm kodeksu cywilnego? W końcu art. 415 kodeksu stwierdza, że

Ale i tutaj mam wątpliwości, czy to słuszna droga. Sztuczna inteligencja (np. taka budowana na bazie systemu IBM Watson) to, wg definicji Johna McCarthy'ego "konstruowanie maszyn, o których działaniu dałoby się powiedzieć, że są podobne do ludzkich przejawów inteligencji". Zatem istnieje prawdopodobieństwo, graniczące z pewnością, że działania inteligentnych androidów mogą być nieoczekiwane nawet dla twórców oprogramowania. Może sensowniejsze byłoby wprowadzenie... odpowiedzialności samych robotów?

Na pierwszy rzut oka brzmi to absurdalnie: maszyna miałaby sama ponosić odpowiedzialność za swoje czyny, tak jak człowiek? Ale przecież taki sam zarzut moglibyśmy podnieść w stosunku do chociażby równie sztucznych tworów, takich jak spółki z ograniczona odpowiedzialnością czy akcyjne. One w końcu też istnieją jako osobne byty prawne, posiadają swój majątek, odpowiadają samodzielnie za zobowiązania.

Co więcej, w historii znajdziemy przykłady, gdy nie tylko ludzie odpowiadali za swoje czyny. W prawie średniowiecznym zwierzęta (np. świnie) mogły ponosić odpowiedzialność karną, np. za morderstwo.

Czy roboty będą miały PESEL?

A przyznanie robotom zdolności prawnej - niezbędnej, aby ponosiły osobistą odpowiedzialność za swoje czyny, zarówno w zakresie cywilnym, jak i karnym - to dopiero początek prawnej rewolucji. Nowy status konstruowanych przez człowieka urządzeń wymagałby zastanowienia się nad innymi konsekwencjami. Czy androidy powinny posiadać numer PESEL i płacić podatki? A co ze składką na NFZ i ZUS (o ile nie zostanie zlikwidowana w ramach jednolitego podatku dochodowego), w końcu emerytura dla robotów nie śniła się nawet Benderowi z Futuramy - najfajniejszemu robotowi w historii ludzkości.

Ale te wszystkie wątpliwości dotyczą raczej odległej przyszłości. Zanim doczekamy się realiów nakreślonych przez twórców "Westworld", będziemy mieli dużo czasu i na przyzwyczajenie się do obecności inteligentnych urządzeń, i na ustalenie prawnych zasad regulujących ich obecność.

Dołącz do dyskusji

zobacz więcej:

Najnowsze
Warte Uwagi