1. Bezprawnik -
  2. Firma -
  3. Banki i linie lotnicze mają problem. Za zmyślania chatbota odpowiadają jak za pracownika

Banki i linie lotnicze mają problem. Za zmyślania chatbota odpowiadają jak za pracownika

Wraz z rosnącym wykorzystaniem systemów AI w obsłudze klienta pojawia się nowy problem — odpowiedzialność za błędne informacje generowane przez chatboty. Podstawowe pytanie brzmi: kto odpowiada za tzw. halucynacje AI w obsłudze klienta i czy regulamin może tę odpowiedzialność wyłączyć?

Piotr Janus26.04.2026 19:12
Firma

Halucynacje, które kosztują klientów realne pieniądze

Modele językowe potrafią generować odpowiedzi brzmiące bardzo przekonująco, ale niezgodne z rzeczywistością. W sektorach takich jak bankowość czy transport lotniczy skutki bywają dotkliwe, ponieważ klient podejmuje decyzję w oparciu o informację przekazaną przez oficjalny kanał obsługi, a następnie ponosi stratę, bo warunki były inne, termin minął albo opłata jednak obowiązywała. Nie jest to już tylko problem jakości obsługi, ale kwestia odpowiedzialności prawnej. Zresztą sama odpowiedzialność za błędy AI była już przedmiotem analiz na łamach Bezprawnika — i wnioski są jednoznaczne.

Chatbot jako „pracownik” przedsiębiorcy

Z perspektywy prawa cywilnego sytuacja wydaje się dość klarowna, ponieważ klient zawiera relację z przedsiębiorcą, nie z technologią. Chatbot, niezależnie od stopnia autonomii, pozostaje narzędziem firmy. W konsekwencji jego działanie (lub błąd) obciąża przedsiębiorcę tak, jak obciążałoby działanie pracownika czy wadliwego systemu informatycznego. Jeżeli więc bank lub linia lotnicza przekazuje błędną informację za pośrednictwem swojego oficjalnego kanału, mamy do czynienia z potencjalnym nienależytym wykonaniem zobowiązania w rozumieniu art. 471 Kodeksu cywilnego.

Kiedy ChatGPT zmyśla, a klient ponosi konsekwencje

Problem dotyczy nie tylko wyspecjalizowanych botów wdrażanych przez działy obsługi. Dziś wiele firm korzysta z gotowych modeli językowych, które potrafią konfabulować, gdy nie znają odpowiedzi. Jak pokazują doświadczenia opisywane na łamach Bezprawnika, ChatGPT zmyśla wystarczająco często, by uznać to za istotne ryzyko biznesowe — zwłaszcza gdy klient nie zdaje sobie sprawy, że rozmawia z botem, a nie z żywym konsultantem.

Granice regulaminów i klauzule abuzywne

Przedsiębiorcy próbują ograniczać ryzyko poprzez klauzule regulaminowe typu „informacje mają charakter pomocniczy”, „należy je zweryfikować”, „firma nie ponosi odpowiedzialności za decyzje użytkownika”. Problem w tym, że skuteczność takich zapisów jest ograniczona. Zgodnie z art. 385¹ Kodeksu cywilnego, postanowienia umowy z konsumentem, które kształtują jego prawa w sposób sprzeczny z dobrymi obyczajami i rażąco naruszają jego interesy, nie wiążą go. W praktyce oznacza to, że nie można prostym zapisem regulaminowym wyłączyć odpowiedzialności za wprowadzenie klienta w błąd. To klasyczne klauzule abuzywne, które tracą moc z mocy samego prawa, niezależnie od tego, czy konsument zauważył je przy akceptacji regulaminu.

Dodatkowo przepisy Ustawy o przeciwdziałaniu nieuczciwym praktykom rynkowym z 23 sierpnia 2007 r. zakazują wprost przekazywania informacji wprowadzających w błąd — niezależnie od tego, czy ich źródłem jest człowiek, czy algorytm. Warto przy okazji pamiętać, że niedozwolone postanowienia w regulaminie sklepu internetowego mogą skutkować nie tylko nieważnością konkretnego zapisu, ale także karami sięgającymi 10% przychodów przedsiębiorcy za poprzedni rok rozliczeniowy.

Zaufanie konsumenta jako klucz do odpowiedzialności

Kluczowe znaczenie ma tzw. uzasadnione zaufanie. Jeśli komunikat pochodzi z oficjalnego kanału — na przykład aplikacji bankowej, czatu na stronie przewoźnika — klient ma prawo zakładać, że jest rzetelny i wiarygodny. Co więcej, zgodnie z Ustawą o prawach konsumenta z 30 maja 2024 r., informacje przekazane przed zawarciem umowy są wiążące dla przedsiębiorcy, czyli odpowiedzi chatbotu mogą stać się elementem stosunku umownego.

Wprowadzenie w błąd i szkoda po stronie klienta

Jeżeli klient podejmie decyzję pod wpływem błędnej informacji, może powołać się na przepisy o błędzie (art. 84 Kodeks cywilny), a w skrajnych przypadkach nawet na odpowiedzialność deliktową z art. 415 tego samego aktu. W tym wypadku kluczowe będzie wykazanie szkody oraz związku przyczynowego między komunikatem AI a decyzją klienta.

Reklamacja w banku jako pierwsza droga dochodzenia roszczeń

W sektorze finansowym poszkodowany klient ma do dyspozycji konkretne narzędzie. Reklamacja w banku złożona w oparciu o ustawę z 5 sierpnia 2015 r. o rozpatrywaniu reklamacji przez podmioty rynku finansowego daje konsumentowi spore pole manewru — zwłaszcza dlatego, że niedotrzymanie przez bank 30-dniowego terminu na odpowiedź skutkuje uznaniem reklamacji zgodnie z wolą klienta.

A co z dostawcą AI?

Z punktu widzenia klienta jest to w zasadzie mało istotne. Relacja prawna łączy go z firmą, która oferuje określoną usługę. Może ona ewentualnie dochodzić roszczeń regresowych wobec dostawcy technologii. Spór przenosi się wtedy na poziom B2B i pozostaje poza bezpośrednim zainteresowaniem użytkownika.

AI Act i nadchodzące regulacje europejskie

Na poziomie europejskim problem jest dostrzegalny — m.in. AI Act wprowadza obowiązki w zakresie zarządzania ryzykiem i przejrzystości systemów AI. Choć nie rozstrzyga on wprost wszystkich kwestii odpowiedzialności cywilnej, wyznacza kierunek zmierzający do większej kontroli nad systemami i mniejszego pola do przerzucania ryzyka na użytkownika.

Ryzyko biznesowe wdrożeń AI w obsłudze klienta

Firmy korzystające z chatbotów muszą dostosować swoje działania do nowych wyzwań i zmienić podejście. Chatbot nie może być traktowany wyłącznie jako narzędzie optymalizacji kosztów. W świetle obowiązujących przepisów jest pełnoprawnym kanałem komunikacji, którego błędy mogą rodzić odpowiedzialność odszkodowawczą, a „halucynacje” AI nie są już ciekawostką technologiczną, lecz realnym problemem prawnym.

Co do zasady to przedsiębiorca odpowiada za komunikaty swojego systemu, niezależnie od tego, czy stworzył je człowiek, czy algorytm. Regulamin może ograniczać ryzyko, ale nie zwolni z odpowiedzialności tam, gdzie dochodzi do wprowadzenia klienta w błąd lub nienależytego wykonania umowy.

Obserwuj nas w Google Discover
Google Discover
Podobają Ci się nasze treści?
Google Discover
Dołącz do dyskusji

zobacz więcej:

Najnowsze
Warte Uwagi