AI może nakłamać klientowi, a za skutki takiego kłamstwa będzie odpowiadać przedsiębiorca

Firma Prawo Technologie Dołącz do dyskusji
AI może nakłamać klientowi, a za skutki takiego kłamstwa będzie odpowiadać przedsiębiorca

Mieliśmy już pierwszy zachwyt możliwościami oferowanymi przez sztuczną inteligencję oraz alarmistyczne tezy o rychłym buncie maszyn i końcu świata. Teraz przyszedł czas na zmierzenie się z prozą życia. Stosowana już dzisiaj technologia potrafi ułatwić prowadzenie działalności firmy, na przykład w obsłudze klienta. Potrafi też zmyślać. Odpowiedzialność za błędy AI leży po stronie przedsiębiorstwa, które z niego korzysta.

Pewne są dwie rzeczy: sztuczna inteligencja nie jest samodzielnym bytem, a za jej działanie odpowiada przedsiębiorca

Coraz więcej polskich firm wykorzystuje AI w swojej codziennej pracy. Dotyczy to także obsługi klienta. Dobrze skonfigurowany voicebot albo chatbot zintegrowany z jakimś zaawansowanym modelem sztucznej inteligencji jest w stanie z powodzeniem rozwiązywać prostsze problemy klientów. Potrafi także przekazywać te bardziej skomplikowane żywemu pracownikowi. Siłą rzeczy pojawia się pokusa, by przekazać AI możliwie dużo zadań, chociażby w celu redukcji zatrudnienia o „zbędny” personel. Problem pojawia się w momencie, gdy AI zaczyna na przykład zmyślać.

Nie jest żadną tajemnicą, że współczesna sztuczna inteligencja niekiedy zwraca dość osobliwe odpowiedzi. W Stanach Zjednoczonych głośny był swego czasu przypadek prawników, którzy chcieli ułatwić sobie życie i zrzucić na AI nudną pracę związaną z poszukiwaniem pasujących do sprawy precedensów. Algorytm wymyślił kilka nieistniejących, sędzia się zorientował, a panowie najedli się wstydu. Gdzie indziej AI podsuwa użytkownikom przepisy kulinarne, które mogą im bardzo zaszkodzić.

Co do zasady: kiedy sztuczna inteligencja nie jest w stanie uzyskać poprawnej odpowiedzi, to istnieje spore ryzyko, że zacznie kombinować. Gdy mamy do czynienia z niegroźną zabawą znudzonych internautów, to trudno mówić o jakichś konsekwencjach. Jeśli jednak nabroi sztuczna inteligencja wykorzystywana przez przedsiębiorstwo, to te mogą być całkiem poważne. Jak w takim razie wygląda pod względem prawnym odpowiedzialność za błędy AI? Przepisy niekoniecznie nadążają za technologiczną rewolucją. Nie oznacza to jednak, że znalezienie odpowiedzi jest niemożliwe.

Sztuczna inteligencja nie ma obecnie żadnej osobnej kategorii prawnej. W gruncie rzeczy trudno ją nawet nazwać pełnoprawną „inteligencją”, nie wspominając nawet o samoistnym bycie. Tym samym nie jest żadnym podmiotem praw, nie jest też zwierzęciem. Nie jest też produktem ze swej natury niebezpiecznym. Jest po prostu narzędziem jak każdy inny program komputerowy. Niektórzy eksperci przyrównują AI do innych urządzeń wprawianych za pomocą elektryczności w rodzaju robotów montażowych. To całkiem niezły punkt wyjścia, bo prowadzący do konkretnego przepisu. Pytanie brzmi: czy aby na pewno właściwego?

Odpowiedzialność za błędy AI trudno w obecnym stanie prawnym jednoznacznie zdefiniować

Mowa w tym wypadku o art. 435 kodeksu cywilnego, który określa zakres odpowiedzialności przedsiębiorcy za szkodę wyrządzoną przez zakładowe elementy ruchome.

§ 1. Prowadzący na własny rachunek przedsiębiorstwo lub zakład wprawiany w ruch za pomocą sił przyrody (pary, gazu, elektryczności, paliw płynnych itp.) ponosi odpowiedzialność za szkodę na osobie lub mieniu, wyrządzoną komukolwiek przez ruch przedsiębiorstwa lub zakładu, chyba że szkoda nastąpiła wskutek siły wyższej albo wyłącznie z winy poszkodowanego lub osoby trzeciej, za którą nie ponosi odpowiedzialności.
§ 2. Przepis powyższy stosuje się odpowiednio do przedsiębiorstw lub zakładów wytwarzających środki wybuchowe albo posługujących się takimi środkami.

Niestety, zacytowany przed chwilą przepis posługuje się dość archaicznym językiem. W chwili jego tworzenia ustawodawca miał na myśli raczej młyny, maszyny rolnicze, w ostateczności wózki widłowe, ale nie firmowe oprogramowanie. Wymaga ono do funkcjonowania prądu elektrycznego, ale orzecznictwo Sądu Najwyższego raczej nakazuje przy analizowaniu możliwości zastosowania art. 435 k.c traktować przedsiębiorstwo jako całość.

Tymczasem AI do obsługi klienta najczęściej wykorzystują banki i sklepy internetowe, które wciąż opierają się w równym stopniu na pracy żywego człowieka. Tym samym odpada nam odpowiedzialność na zasadzie ryzyka. Być może lepiej byłoby się zastanowić, czy odpowiedzialność za błędy AI nie powinna się sprowadzać do art. 415 k.c.

Mowa o najbardziej podstawowej odpowiedzialności deliktowej: „Kto z winy swej wyrządził drugiemu szkodę, obowiązany jest do jej naprawienia.”. Wina w przypadku humorków sztucznej inteligencji byłaby raczej nieumyślna. W grę wchodzi niewłaściwa konfiguracja oprogramowania, przekazanie mu zbyt skomplikowanych zadań do samodzielnego wykonania, niezapewnienie dostatecznego nadzoru żywego człowieka, albo niezastosowanie jakichś mechanizmów bezpieczeństwa na wypadek wystąpienia błędów.

Art. 415 k.c. zapewnia jednak ewentualnym poszkodowanym węższy zakres ochrony niż art. 435 k.c. Nie ulega jednak wątpliwości, że odpowiedzialność za błędy AI spoczywa na przedsiębiorcy, który z niego korzysta. Może on oczywiście samemu dochodzić później własnych roszczeń wobec producenta albo dostawcy danego oprogramowania.

Trudno oprzeć się wrażeniu, że ustawodawca powinien stworzyć zupełnie osobne zasady odpowiedzialności przedsiębiorcy za niedomagania wszelkiego rodzaju programów komputerowych, w tym także modeli sztucznej inteligencji. Dotyczy to zwłaszcza relacji z konsumentami.