AI potrafi nieźle namieszać. Kto odpowiada za szkody wyrządzone przez sztuczną inteligencję?

Prawo Dołącz do dyskusji
AI potrafi nieźle namieszać. Kto odpowiada za szkody wyrządzone przez sztuczną inteligencję?

Sztuczna inteligencja rozwija się w ekspresowym tempie i znajduje zastosowanie w kolejnych dziedzinach naszego życia. Niestety, wraz z postępem technologicznym pojawiają się nowe wyzwania. Jednym z nich jest zagadnienie odpowiedzialności za szkody wyrządzone przez sztuczną inteligencję.

AI a odpowiedzialność za szkody wyrządzone przez sztuczną inteligencję

Według Komisji Europejskiej technologie oparte na sztucznej inteligencji mogą pobudzić gospodarkę i poprawić jakość życia. Zaczynając od transportu, przez odciążenie pracowników w fabrykach, po zindywidualizowaną edukację i udzielanie kredytów oraz pożyczek. Jednak nowe możliwości to także nowe wyzwania. By nie doprowadzić do anarchicznej rewolucji, której negatywne skutki szybko odczujemy, konieczne jest przyjęcie odpowiednich regulacji. Obecnie brak jasnych zasad co do odpowiedzialności za błędy AI powstrzymuje branżę przed pełnym rozwinięciem skrzydeł.

Jak na razie wciąż jednoznacznie nie wiadomo, kto i w jakich sytuacjach odpowiada za błędy systemu informatycznego – firmy, które wprowadzają na rynek produkty oparte na systemach AI, czy programiści, którzy te systemy tworzą? Znalezienie rozwiązania dla tego problemu wymaga nie tylko regulacji prawnych, ale również zmian w procesie projektowania i wdrażania sztucznej inteligencji. Chodzi o jak największe zminimalizowanie ryzyka powstania szkody. Sztuczna inteligencja wymaga od prawodawców szczegółowego zdefiniowania zagadnień prywatności, bezpieczeństwa, odpowiedzialności i etyki w kontekście „cyfrowej tożsamości”.

Sztuczna inteligencja a prawo – spore wyzwania

Największym wyzwaniem w skutecznym prawnym podejściu do tematu sztucznej inteligencji jest dynamicznie zmieniające się otoczenie. Proces prawodawczy jest długi i skomplikowany, a ryzyko dezaktualizacji kolejnych definicji wysokie. Mimo to zaawansowane prace nad zbiorczymi regulacjami dla krajów wspólnoty europejskiej trwają. Kompleksową strategię rozwoju sztucznej inteligencji wraz z projektem rozporządzenia harmonizującego przepisy w sprawie AI w całej UE Komisja Europejska przedstawiła w 2021 roku. Jak na razie, odpowiedzialność za AI można wnioskować na podstawie aktualnych przepisów. Zawartych m.in. w prawie cywilnym, opierając się na kodeksowych relacjach producenta i konsumenta.

W unijnych regulacjach kluczowe jest wyróżnienie dwóch podmiotów – operatora i producenta. Wśród wariantów odpowiedzialności przewidziano ten oparty na zasadzie ryzyka i drugi; bazujący na zasadzie winy. W pierwszym przypadku istotna jest znaczna potencjalna możliwość wyrządzenia przez system sztucznej inteligencji działający autonomicznie losowo występujących szkód. Zarówno w odniesieniu do jednej osoby, jak i grupy. W ten sposób, że wykracza to poza okoliczności, jakich racjonalnie mogliśmy się spodziewać.

W drugim modelu mowa jest o systemach innych niż te wysokiego ryzyka. Odpowiedzialność na zasadzie winy agreguje szkody spowodowane przez fizyczne lub wirtualne działanie AI. A także urządzenia sterowane tym systemem bądź na skutek procesu, który został na tym systemie oparty.

W obu przypadkach uwzględniono katalog wyłączeń odpowiedzialności, w skład którego wchodzi m.in. szkoda powstała w wyniku siły wyższej.

Szkody wyrządzone przez AI – jak pomóc ofiarom?

Przed ujemnymi skutkami działania sztucznej inteligencji można zabezpieczyć się w różny sposób. Na przykład poprzez wprowadzenie ubezpieczeń chroniących użytkowników systemów AI czy utworzenie funduszu na rzecz ofiar.

W przypadku śmierci, uszczerbku na zdrowiu albo okaleczenia UE przewiduje rekompensatę do 2 mln euro. Jeśli chodzi o odszkodowanie na zasadzie ryzyka. Wysokość oraz zakres odszkodowania należnego z tytułu odpowiedzialności na zasadzie winy ma być zaś regulowana przepisami kraju członkowskiego Unii, w którym powstała szkoda.

Zgodnie z proponowanymi przepisami, w przypadku poważnej szkody niematerialnej, która spowodowała możliwą do zweryfikowania stratę ekonomiczną lub szkodę majątkową, w tym zniszczenia kilku przedmiotów należących do poszkodowanego w wyniku pojedynczego działania jednego systemu sztucznej inteligencji obarczonego wysokim ryzykiem, odszkodowanie może wynieść do miliona euro. Jednakże, jeżeli na mocy zawartej umowy poszkodowany ma prawo do składania roszczeń w stosunku do operatora, nie przysługuje mu odszkodowanie, jeśli całkowita wartość zniszczonego mienia lub poważnej szkody niematerialnej nie przekracza 500 euro.

W przypadku szkód majątkowych lub poważnych szkód niematerialnych, które skutkują możliwą do zweryfikowania stratą ekonomiczną, termin przedawnienia wynosi 10 lat od daty powstania szkody majątkowej lub możliwej do zweryfikowania straty ekonomicznej wynikającej z poważnej szkody niematerialnej. W przypadku zniszczenia własności poszkodowanego lub poważnej szkody niematerialnej, spowodowanych przez operację z wykorzystaniem systemu sztucznej inteligencji obarczonego wysokim ryzykiem, termin przedawnienia wynosi 30 lat od daty przeprowadzenia tej operacji.