- Bezprawnik -
- Firma -
- Banki i linie lotnicze mają problem. Za zmyślania chatbota odpowiadają jak za pracownika
Banki i linie lotnicze mają problem. Za zmyślania chatbota odpowiadają jak za pracownika
Wraz z rosnącym wykorzystaniem systemów AI w obsłudze klienta pojawia się nowy problem — odpowiedzialność za błędne informacje generowane przez chatboty. Podstawowe pytanie brzmi: kto odpowiada za tzw. halucynacje AI w obsłudze klienta i czy regulamin może tę odpowiedzialność wyłączyć?

Halucynacje, które kosztują klientów realne pieniądze
Modele językowe potrafią generować odpowiedzi brzmiące bardzo przekonująco, ale niezgodne z rzeczywistością. W sektorach takich jak bankowość czy transport lotniczy skutki bywają dotkliwe, ponieważ klient podejmuje decyzję w oparciu o informację przekazaną przez oficjalny kanał obsługi, a następnie ponosi stratę, bo warunki były inne, termin minął albo opłata jednak obowiązywała. Nie jest to już tylko problem jakości obsługi, ale kwestia odpowiedzialności prawnej. Zresztą sama odpowiedzialność za błędy AI była już przedmiotem analiz na łamach Bezprawnika — i wnioski są jednoznaczne.
Chatbot jako „pracownik” przedsiębiorcy
Z perspektywy prawa cywilnego sytuacja wydaje się dość klarowna, ponieważ klient zawiera relację z przedsiębiorcą, nie z technologią. Chatbot, niezależnie od stopnia autonomii, pozostaje narzędziem firmy. W konsekwencji jego działanie (lub błąd) obciąża przedsiębiorcę tak, jak obciążałoby działanie pracownika czy wadliwego systemu informatycznego. Jeżeli więc bank lub linia lotnicza przekazuje błędną informację za pośrednictwem swojego oficjalnego kanału, mamy do czynienia z potencjalnym nienależytym wykonaniem zobowiązania w rozumieniu art. 471 Kodeksu cywilnego.
Kiedy ChatGPT zmyśla, a klient ponosi konsekwencje
Problem dotyczy nie tylko wyspecjalizowanych botów wdrażanych przez działy obsługi. Dziś wiele firm korzysta z gotowych modeli językowych, które potrafią konfabulować, gdy nie znają odpowiedzi. Jak pokazują doświadczenia opisywane na łamach Bezprawnika, ChatGPT zmyśla wystarczająco często, by uznać to za istotne ryzyko biznesowe — zwłaszcza gdy klient nie zdaje sobie sprawy, że rozmawia z botem, a nie z żywym konsultantem.
Granice regulaminów i klauzule abuzywne
Przedsiębiorcy próbują ograniczać ryzyko poprzez klauzule regulaminowe typu „informacje mają charakter pomocniczy”, „należy je zweryfikować”, „firma nie ponosi odpowiedzialności za decyzje użytkownika”. Problem w tym, że skuteczność takich zapisów jest ograniczona. Zgodnie z art. 385¹ Kodeksu cywilnego, postanowienia umowy z konsumentem, które kształtują jego prawa w sposób sprzeczny z dobrymi obyczajami i rażąco naruszają jego interesy, nie wiążą go. W praktyce oznacza to, że nie można prostym zapisem regulaminowym wyłączyć odpowiedzialności za wprowadzenie klienta w błąd. To klasyczne klauzule abuzywne, które tracą moc z mocy samego prawa, niezależnie od tego, czy konsument zauważył je przy akceptacji regulaminu.
Dodatkowo przepisy Ustawy o przeciwdziałaniu nieuczciwym praktykom rynkowym z 23 sierpnia 2007 r. zakazują wprost przekazywania informacji wprowadzających w błąd — niezależnie od tego, czy ich źródłem jest człowiek, czy algorytm. Warto przy okazji pamiętać, że niedozwolone postanowienia w regulaminie sklepu internetowego mogą skutkować nie tylko nieważnością konkretnego zapisu, ale także karami sięgającymi 10% przychodów przedsiębiorcy za poprzedni rok rozliczeniowy.
Zaufanie konsumenta jako klucz do odpowiedzialności
Kluczowe znaczenie ma tzw. uzasadnione zaufanie. Jeśli komunikat pochodzi z oficjalnego kanału — na przykład aplikacji bankowej, czatu na stronie przewoźnika — klient ma prawo zakładać, że jest rzetelny i wiarygodny. Co więcej, zgodnie z Ustawą o prawach konsumenta z 30 maja 2024 r., informacje przekazane przed zawarciem umowy są wiążące dla przedsiębiorcy, czyli odpowiedzi chatbotu mogą stać się elementem stosunku umownego.
Wprowadzenie w błąd i szkoda po stronie klienta
Jeżeli klient podejmie decyzję pod wpływem błędnej informacji, może powołać się na przepisy o błędzie (art. 84 Kodeks cywilny), a w skrajnych przypadkach nawet na odpowiedzialność deliktową z art. 415 tego samego aktu. W tym wypadku kluczowe będzie wykazanie szkody oraz związku przyczynowego między komunikatem AI a decyzją klienta.
Reklamacja w banku jako pierwsza droga dochodzenia roszczeń
W sektorze finansowym poszkodowany klient ma do dyspozycji konkretne narzędzie. Reklamacja w banku złożona w oparciu o ustawę z 5 sierpnia 2015 r. o rozpatrywaniu reklamacji przez podmioty rynku finansowego daje konsumentowi spore pole manewru — zwłaszcza dlatego, że niedotrzymanie przez bank 30-dniowego terminu na odpowiedź skutkuje uznaniem reklamacji zgodnie z wolą klienta.
A co z dostawcą AI?
Z punktu widzenia klienta jest to w zasadzie mało istotne. Relacja prawna łączy go z firmą, która oferuje określoną usługę. Może ona ewentualnie dochodzić roszczeń regresowych wobec dostawcy technologii. Spór przenosi się wtedy na poziom B2B i pozostaje poza bezpośrednim zainteresowaniem użytkownika.
AI Act i nadchodzące regulacje europejskie
Na poziomie europejskim problem jest dostrzegalny — m.in. AI Act wprowadza obowiązki w zakresie zarządzania ryzykiem i przejrzystości systemów AI. Choć nie rozstrzyga on wprost wszystkich kwestii odpowiedzialności cywilnej, wyznacza kierunek zmierzający do większej kontroli nad systemami i mniejszego pola do przerzucania ryzyka na użytkownika.
Ryzyko biznesowe wdrożeń AI w obsłudze klienta
Firmy korzystające z chatbotów muszą dostosować swoje działania do nowych wyzwań i zmienić podejście. Chatbot nie może być traktowany wyłącznie jako narzędzie optymalizacji kosztów. W świetle obowiązujących przepisów jest pełnoprawnym kanałem komunikacji, którego błędy mogą rodzić odpowiedzialność odszkodowawczą, a „halucynacje” AI nie są już ciekawostką technologiczną, lecz realnym problemem prawnym.
Co do zasady to przedsiębiorca odpowiada za komunikaty swojego systemu, niezależnie od tego, czy stworzył je człowiek, czy algorytm. Regulamin może ograniczać ryzyko, ale nie zwolni z odpowiedzialności tam, gdzie dochodzi do wprowadzenia klienta w błąd lub nienależytego wykonania umowy.
zobacz więcej:
26.04.2026 19:19, Filip Dąbrowski
26.04.2026 19:12, Piotr Janus
26.04.2026 15:40, Rafał Chabasiński
26.04.2026 12:12, Miłosz Magrzyk
26.04.2026 10:45, Aleksandra Smusz

Wystarczyło zapytać o produkt, by wystawić opinię. UOKiK ukarał OLX za system, który oszukiwał kupujących
26.04.2026 10:04, Piotr Janus
26.04.2026 9:02, Marcin Szermański
26.04.2026 7:38, Miłosz Magrzyk
25.04.2026 22:54, Marek Śmigielski
25.04.2026 19:53, Rafał Chabasiński
25.04.2026 15:41, Miłosz Magrzyk
25.04.2026 15:21, Piotr Janus
25.04.2026 15:10, Joanna Świba
25.04.2026 14:24, Rafał Chabasiński
25.04.2026 13:27, Jakub Kralka
25.04.2026 12:50, Mateusz Krakowski
24.04.2026 16:01, Piotr Janus
24.04.2026 15:06, Mateusz Krakowski
24.04.2026 14:19, Miłosz Magrzyk
24.04.2026 13:29, Piotr Janus
24.04.2026 12:37, Edyta Wara-Wąsowska
24.04.2026 11:49, Mariusz Lewandowski
24.04.2026 11:31, Miłosz Magrzyk
24.04.2026 10:33, Marcin Szermański
24.04.2026 9:40, Rafał Chabasiński
24.04.2026 9:00, Edyta Wara-Wąsowska
24.04.2026 8:34, Piotr Janus

KSeF jeszcze nie karze, ale skarbówka już tak. Te przepisy dalej obowiązują i mogą cię słono kosztować
24.04.2026 7:49, Rafał Chabasiński
24.04.2026 6:56, Rafał Chabasiński



























