Czy powinniśmy spodziewać się, że za kilka lat sztuczna inteligencja będzie posiadać osobowość prawną?

Prawo Technologie Dołącz do dyskusji (109)
Czy powinniśmy spodziewać się, że za kilka lat sztuczna inteligencja będzie posiadać osobowość prawną?

Myślisz, że wizja świata, w którym sztuczna inteligencja wyposażona jest w podmiotowość prawną to wizja nierealna? Odpowiesz, że perypetie robota na sali sądowej, to raczej dobry pomysł na scenariusz komediowego prawniczego serialu science-fiction? Tymczasem normatywne ujęcie sztucznej inteligencji może okazać się dylematem niedalekiej przyszłości, a w pewnych kręgach, naukowcy i prawnicy już dziś toczą dyskusje na ten temat.

Mówi się, że czasy w których żyjemy, to czasy czwartej rewolucji przemysłowej, tzw. „Przemysłu 4.0.” Tę rewolucję cechuje przede wszystkim popularyzacja cyfryzacji i automatyzacji procesów. W tym tych procesów, które dotychczas właściwe były wyłącznie dla człowieka. W konsekwencji, Przemysł 4.0. w pewien sposób wiąże się ze stopniowym zanikaniem bariery pomiędzy ludźmi a maszynami. A gdy maszyny, które wyręczają człowieka w wielu aspektach jego życia, zostaną wyposażone w atrybut, który ma odzwierciedlać ludzki rozum, czyli sztuczną inteligencję, pojawia się pytanie, czy oraz w jaki sposób podjąć ten temat na gruncie przepisów. A w konsekwencji, czy nowy wspaniały świat, to świat, w którym ustawodawstwa poszczególnych regionów wyposażą sztuczną inteligencję w osobowość prawną, niemalże zrównując ją z człowiekiem. Spójrzmy zatem, bez popadania w postapokaliptyczne wizje rodem z „Matrixa”, czy możemy spodziewać się w najbliższym czasie pojawienia się nowej kategorii podmiotów mogących dokonywać czynności prawnych, tj. elektronicznych osób prawnych.

Legalna definicja sztucznej inteligencji

Sztuczna inteligencja stała się częścią naszego życia. Często nawet nie zdajemy sobie sprawy z tego, że korzystamy z jej zdobyczy. Teoretyzujemy na temat autonomicznych samochodów. Możliwe, że niektórym z nas koronawirusową samotnię umila SIRI. Ale czy zapytani w rozmowie o to, czym jest sztuczna inteligencja, jesteśmy w stanie wytłumaczyć, co rozumiemy pod tym pojęciem? Czy w ogóle da się to pojęcie zdefiniować w taki sposób, by uwzględnić potencjalny dalszy rozwój technologiczny? A jeśli krytykujemy lub popieramy ideę nadania sztucznej inteligencji osobowości prawnej, czy podczas prawniczej potyczki, jesteśmy w stanie wskazać legalną definicję tego pojęcia? Otóż, określenie sztuczna inteligencja jest przekładem z  angielskiego „Artifcial Intelligence” (często określanego również w skrócie, jako: „AI”). W publikacjach na temat sztucznej inteligencji odnaleźć można wiele różnorakich definicji. Jedne są mniej, inne bardziej skomplikowane. Definicja warta uwagi ze względu na swą prostotę znajduje się w opublikowanym w ubiegłym roku projekcie Polityki Rozwoju Sztucznej Inteligencji w Polsce na lata 2019 – 2027. W projekcie polityki wskazano, że:

AI jest szerokim obszarem technologii obliczeniowych, umożliwiających zautomatyzowane rozumowanie.

Przytoczona definicja, pomimo swej lakoniczności, nakreśla główne atrybuty sztucznej inteligencji. Jednak w żaden sposób nie stanowi definicji legalnej, której na dzień dzisiejszy nie odnajdziemy zarówno w polskich, jak również unijnych przepisach. Jest natomiast bardzo prawdopodobne, że w najbliższych latach, zarówno na gruncie polskiego, jak również unijnego prawodawstwa, konieczne będzie zmierzenie się z tym tematem.

Ustawodawca unijny w obliczu sztucznej inteligencji

O ile inteligentna lodówka, która podpowie listę zakupów, na podstawie produktów, które zdążyliśmy skonsumować, z pewnością ułatwiłaby życie wielu osób, o tyle entuzjazm do AI nieco maleje, gdy podaje się przykłady jej zastosowania, wskazując, że w niektórych branżach ma większą efektywność, niż człowiek. Przykładowo, istnieją już dedykowane branży prawniczej programy, oparte na algorytmach umożliwiających weryfikację dokumentacji umownej (głównie powtarzalnych klauzul). Tym samym, wiele ze standardowych klauzul umownych, których odszukanie może nie jest problematyczne dla prawnika, ale pochłania sporo czasu, nie stanowi już wyzwania dla AI.

Nie zmienia to faktu, że istnieje pewien próg błędu, który sprawia, że sztuczna inteligencja nie zastąpi człowieka wówczas, gdy kontrakt ma charakter niestandardowy. Istnieje zatem znikome prawdopodobieństwo, że prawnicy zostaną zastąpieni przez AI (przynajmniej na dzień dzisiejszy). A taki program może stanowić narzędzie pomocnicze (nie ulega wątpliwości, że przydatne). Przykładów właściwych dla innych branż jest mnóstwo. W konsekwencji szerzącej się popularyzacji AI, kilka lat temu konieczność prawnego ujęcia problemu została dostrzeżona przez Unię Europejską. Powstało kilka interesujących unijnych publikacji, a jednym z najnowszych dokumentów odnoszących się do AI, jest opublikowana przez Komisję Europejską w lutym br., biała księga w sprawie sztucznej inteligencji – „Europejskie podejście do doskonałości i zaufania”. Jak wiadomo, AI niesie za sobą również zagrożenia. W dokumencie tym wskazano kilka z nich, przykładowo:

Szczególne cechy technologii sztucznej inteligencji, w tym nieprzejrzystość („efekt czarnej skrzynki”), złożoność, nieprzewidywalność i częściowo samodzielne działanie mogą utrudniać weryfikację zgodności oraz egzekwowanie istniejących przepisów UE służących ochronie praw podstawowych. Organy egzekwowania prawa i zainteresowane osoby mogą nie mieć możliwości sprawdzenia, w jaki sposób dana decyzja, w którą zaangażowana była AI, została podjęta, a zatem czy obowiązujące przepisy były przestrzegane. Osoby fizyczne i prawne mogą mieć trudności z faktycznym dostępem do wymiaru sprawiedliwości w sytuacjach, w których takie decyzje mogą mieć na nie negatywny wpływ.

Dodatkowo, we wspomnianej białej księdze podkreślono, że aktualnie obowiązujące unijne przepisy dotyczące, przykładowo, ochrony konsumenckiej, bezpieczeństwa produktów czy ochrony danych osobowych mogą (a nawet powinny) być stosowane do rozwiązań z zakresu AI, jednak dostrzeżono (w pełni słusznie), że ramy legislacyjne mogłyby zostać udoskonalone z uwzględnieniem specyfiki AI, wedle założeń wskazanych przez Komisję. Do założeń tych co prawda nie zaliczono bezpośrednio nadania podmiotowości prawnej AI (o tym dlaczego nie, za chwilę), jednak kilka kwestii zasługuje na uwagę. Do tych kwestii zaliczyć możemy:

  • poszerzenie przepisów dotyczących bezpieczeństwa produktów, poprzez uwzględnienie bezpieczeństwa usług (w celu rozwiania wątpliwości, czy samodzielne oprogramowanie podlega unijnym regulacjom dotyczącym bezpieczeństwa produktów),
  • uwzględnienie regulacji dotyczących cyklu życia oprogramowania (ponieważ aktualne regulacje dotyczą głównie bezpieczeństwa produktu w momencie jego wprowadzania do obrotu) oraz doprecyzowanie zasad odpowiedzialności za produkt po wprowadzeniu go do obrotu (na okoliczność dodania AI przez podmiot niebędący producentem),
  • zmiany regulacyjne w obszarze cyberbezpieczeństwa (z uwagi na popularyzację AI w rozwiązaniach dedykowanych dla gospodarstw domowych, które mogą stwarzać potencjalne zagrożenia dla obywateli UE).

Jednocześnie, w białej księdze wskazano, że rekomendowanym podejściem jest wdrożenie rozwiązań wspólnych dla wszystkich krajów unijnych:

Rozbieżne przepisy krajowe mogą stwarzać przeszkody dla przedsiębiorstw, które chcą sprzedawać i eksploatować systemy sztucznej inteligencji na jednolitym rynku. Zapewnienie wspólnego podejścia na szczeblu UE przyniosłoby europejskim przedsiębiorstwom korzyści wynikające ze sprawnego dostępu do jednolitego rynku i zwiększyłoby ich konkurencyjność na rynkach światowych.

AI: Myślę, więc jestem. Odpowiedź: Nie tak szybko, droga sztuczna inteligencjo

Jakiś czas temu, media donosiły o tym, że pierwszy robot humanoidalny otrzymał obywatelstwo Arabii Saudyjskiej. Zadaniem tego robota, imieniem Sophia, było prowadzenie rozmowy, poprzez naśladowanie ludzkiej komunikacji. To ciekawa historia, szczególnie dla obrońców praw kobiet na arenie międzynarodowej. Jednak nieprzewidywalność sztucznej inteligencji bardziej naświetla inny medialny przykład. Jakiś czas temu sieć obiegła informacja, że wypuszczona przez Microsoft sztuczna inteligencja Tay publikowała bardzo kontrowersyjne wpisy na Twitterze, w tym wpisy o treściach rasistowskich, co spowodowało, że po 24h została wyłączona.

Założenie było takie, że Tay miała symulować kochającą ludzi nastolatkę, bez uprzedzeń do jakiejkolwiek grupy społecznej. Internet okrutnie zweryfikował to założenie. Te i inne przykłady dowodzą, że AI co prawda myśli, przy czym nie myśli w analogowy, właściwy dla człowieka sposób. Jednak, czy to, że myśli, sprawia, że powinna zostać wyposażona w osobowość prawną? Załóżmy, że osobowość tę określilibyśmy mianem „elektronicznej osobowości prawnej”. Wówczas AI mogłaby w całej rozciągłości odpowiadać za swe dokonania, w tym za czyny zabronione, które teoretycznie może popełnić. Na gruncie polskim, w tym zakresie wypowiedziano się we wspomnianym powyżej projekcie Polityki Rozwoju Sztucznej Inteligencji w Polsce na lata 2019 – 2027, w którym wskazano, że:

Polska stoi na stanowisku i popiera te kraje, które odmawiają nadania systemom AI statusu obywatelstwa czy osobowości prawnej. Koncept ten jest sprzeczny z ideą Human Centric AI oraz stanem rozwoju systemów AI, a wreszcie wyższego statusu zwierząt nad maszynami. Nadto, Polska opowiada się za koncepcją supremacji człowieka nad systemami AI, a przez to odpowiedzialnością ludzką osobistą lub osób prawnych, których człowiek jest założycielem i zarządcą. Reżim prawa prywatnego międzynarodowego również nie powinien dopuścić czynnego udziału typu sztucznej- inteligentnej osoby prawnej w obrocie prawnym.

Jak widać, stanowisko wyrażone w projekcie jest dość jednoznaczne. Co więcej, analogiczne podejście wybrzmiewa z dokumentów publikowanych przez UE. Takie podejście, na dzień dzisiejszy, wydaje się zasadne. Rzeczą oczywistą jest, że AI jest dla człowieka, a nie odwrotnie. Taki argument wykorzystywany jest przez ustawodawcę unijnego jako główny argument przeciwko nadaniu AI podmiotowości prawnej. Tym samym, jakiekolwiek działania w zakresie powstania elektronicznej podmiotowości prawnej dedykowanej AI musiałby być prowadzone ze szczególną ostrożnością i wymagałyby weryfikacji niemalże wszystkich przepisów, w tym przepisów sektorowych. Jednak należy mieć na uwadze, że nieustający rozwój technologii (nie zapominajmy, że algorytmy są udoskonalane) i popularyzacja AI może spowodować, że brak regulacji prawnych, które precyzyjnie określają odpowiedzialność AI za dokonywane czynności (dyskusyjne jest, czy na dzień dzisiejszy można tym czynnościom nadać przymiot czynności prawnych) okaże się przyczyną wielu problemów.